This report investigates the effects of two different types of batch selection used for traininga Deep Reinforcement Learning agent in games. More specifically, the impact of thedifferent methods were tested for different sizes of Deep Neural Networks while using theDeep Q-Network (DQN) algorithm. The two methods investigated were Random batchselection and Combined Experience Replay (CER). Random batch selection is the mostcommonly used method while CER is a more recent method with low additionalcomputational cost. These two methods were tested on the two classic games Snake andSuper Mario Bros, using DQN and a variety of Deep Neural Network Sizes. It was seen thatthe CER method improved stability between the different network sizes while not reducingthe learning rate compared to the Random method. This reduces the difficulty of tuning theDeep Neural Network size while trying to optimise the agent.
Den här rapporten undersöker effekterna av två olika typer av batchval som används för attträna en Djupa Förstärkning Lärande-agent i spel. Mer specifikt testades effekten av de olikametoderna för olika storlekar av Djupa Neurala Nätverk som används i Djupa Q-Nätverk-algoritmen. De två metoderna som undersöktes var Slumpmässigt batchval och CombinedExperience Replay (CER). Slumpmässigt batchval är den mest använda metoden medanCER är en nyare metod med låga extra beräknings kostnader. Dessa två metoder testadespå de två klassiska spelen Snake och Super Mario Bros med hjälp av DQN algoritmen ochvarierande nätvärksstorlekar. Det sågs att CER-metoden förbättrade stabiliteten mellan deolika nätverksstorlekarna samtidigt som den inte minskade inlärningshastigheten jämförtmed Slumpmässigt batchval. Detta minskar svårigheten att justera storleken på det DjupaNeurala Nätverket när man försöker optimera sin agenten.