Making artificial intelligence (AI) algorithms solve games has always been an interesting benchmark of AI research. Perfect information games like Chess can be played on a level beyond human capabilities. However less progress has been made in solving imperfect information games like Poker or Manille where some of the information about the game is private. Counterfactual regret minimization (CFR) is an algorithm that can be applied to zero sum imperfect information games. An example of a successful implementation of CFR is the agent Libratus that was able to beat top professional players in the game Texas Hold’em Poker. The CFR algorithm stores a large amount of information states that holds information about different points in the game. These information states are traversed by the CFR algorithm to solve the game, but these states can become large in terms of computer memory and storage space. Abstractions can be applied that limits the amount of information stored in each state. An example of an abstraction could be removing part of the game history. This results in less memory needed to store all information sets, but gives the agents less information to base their decisions on, which may impact performance. In this study teams of two players in a 12 card version of the game Manille have been evaluated. This was done by comparing the performance of different combinations of an advanced agent and a less advanced agent. The advanced agent has no abstractions applied and remembers all the cards played, while the less advanced agent only remembers the cards in the current trick, which are the cards visible on the table. The results of this study confirm that a team of two advanced players perform better than a team of less advanced players. But when evaluating a team of an advanced player and a less advanced player, it was found that the team would perform better when the less advanced player plays first and the advanced player plays second in the team.
Att använda sig av artificiell intelligens (AI) för olika typer av spel har alltid varit en intressant utmaning för forskning inom AI. Spel med perfekt information som Schack kan redan spelas på en nivå bortom mänsklig förmåga. Dock har mindre framsteg gjorts inom spel med imperfekt information som till exempel Poker eller Manille där en del av informationen i spelet inte är tillgänglig för alla spelarna. Counterfactual regret minimization (CFR) är en algoritm som kan användas för att lösa nollsummespel med imperfekt information. Ett exempel på en lyckad implementation av CFR är agenten Libratus som kunde besegra de främsta professionella spelarna inom spelet Texas Hold’em Poker. CFR algoritmen lagrar en stor mängd av tillstånd som innehåller information om olika punkter i spelet. Dessa tillstånd används av CFR algoritmen för att spela spelet, dock kan dessa tillstånd ta mycket lagringsutrymme i datorn. Abstraktioner kan anävndas för att minska antalet tillstånd som behöver lagras. Ett exempel på en abstraktion skulle kunna vara att ta bort en del av spelhistoriken. Detta leder till att mindre minne används för att lagra varje tillstånd i spelet, men som konsekvens får agenterna mindre information att basera sina beslut på, vilket kan leda till sämre prestanda. I denna rapport undersöks ett lag bestående av två spelare i ett 12 korts-version av spelet Manille. Undersökningen gjordes genom att jämföra prestandan av olika kombinationer av en avancerad agent och en mindre avancerad agent. Den avancerade agenten är en agent utan några abstraktioner, medan den mindre avancerade agenten bara har information om korten i det nuvarande sticket, det vill säga de kort som ligger synliga på bordet. Resultaten från denna rapport visar att ett lag med två avancerade spelare presterar bättre än ett lag bestående av mindre avancerade spelare. Men när en undersökning görs av ett lag med en avancerad spelare och en mindre avancerad spelare, visar det sig att det lag som presterar bäst är laget där den den mindre avancerade spelaren är först och den avancerade spelaren sist i laget.