Équilibre de Nashvignette|Le dilemme du prisonnier : chacun des deux joueurs dispose de deux stratégies : D pour dénoncer, C pour ne pas dénoncer. La matrice présente le gain des joueurs. Si les deux joueurs choisissent D (se dénoncent), aucun ne regrette son choix, car s'il avait choisi C, alors que l'autre a opté pour D, sa « tristesse » aurait augmenté. C'est un équilibre de Nash — il y a « non-regret » de son choix par chacun, au vu du choix de l'autre.
Agent intelligentEn intelligence artificielle, un agent intelligent (AI) est une entité autonome capable de percevoir son environnement grâce à des capteurs et aussi d'agir sur celui-ci via des effecteurs afin de réaliser des objectifs. Un agent intelligent peut également apprendre ou utiliser des connaissances pour pouvoir réaliser ses objectifs. Ils peuvent être simples ou complexes. Par exemple, un simple système réactif, comme le thermostat est considéré comme étant un agent intelligent.
Système multi-agentsEn informatique, un système multi-agent (SMA) est un système composé d'un ensemble d'agents (un processus, un robot, un être humain, une fourmi etc.), actifs dans un certain environnement et interagissant selon certaines règles. Un agent est une entité caractérisée par le fait qu'elle est, au moins partiellement, autonome, ce qui exclut un pilotage centralisé du système global.
Apprentissage par renforcementEn intelligence artificielle, plus précisément en apprentissage automatique, l'apprentissage par renforcement consiste, pour un agent autonome ( robot, agent conversationnel, personnage dans un jeu vidéo), à apprendre les actions à prendre, à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps. L'agent est plongé au sein d'un environnement et prend ses décisions en fonction de son état courant. En retour, l'environnement procure à l'agent une récompense, qui peut être positive ou négative.
Stratégie (théorie des jeux)En théorie des jeux, la stratégie d'un joueur est l’une des options qu’il choisit dans un contexte où le résultat dépend non seulement de ses propres actions, mais également de celles des autres . La stratégie d'un joueur déterminera l'action qu'il entreprendra à n'importe quel stade de la partie. Une stratégie est un algorithme complet pour jouer à un jeu permettant au joueur de déterminer ce qu’il doit faire dans toutes les situations possibles du jeu.
Théorie évolutive des jeuxLa théorie évolutive des jeux, appelée aussi théorie des jeux évolutionniste, est l'application de la théorie des jeux à l'étude de l'évolution de populations en biologie. Elle définit un cadre de compétitions, de stratégies et d'analyses dans lequel la compétition darwinienne peut être modélisée. Elle a vu le jour en 1973 avec la formalisation par John Maynard Smith et George R. Price des compétitions, analysées en tant que stratégies, et des critères mathématiques qui peuvent être utilisés pour prédire les résultats des stratégies concurrentes.
Q-learningvignette|400x400px|Dans le Q-learning, l'agent exécute une action a en fonction de l'état s et d'une fonction Q. Il perçoit alors le nouvel état s' et une récompense r de l'environnement. Il met alors à jour la fonction Q. Le nouvel état s' devient alors l'état s, et l'apprentissage continue. En intelligence artificielle, plus précisément en apprentissage automatique, le Q-learning est un algorithme d'apprentissage par renforcement. Il ne nécessite aucun modèle initial de l'environnement.
Équilibre corréléEn théorie des jeux, la notion d’équilibre corrélé est un concept de solution proposée pour la première fois en 1974 par le mathématicien Robert Aumann. Il généralise le concept d'équilibre de Nash. L'équilibre corrélé suppose l'existence d'un dispositif externe de corrélation, par exemple un "maître du jeu" auquel tous les joueurs font confiance. Celui-ci affecte leurs stratégies aux différents joueurs suivant une certaine loi de probabilité.
Apprentissage par renforcement profondL'apprentissage par renforcement profond (en anglais : deep reinforcement learning ou deep RL) est un sous-domaine de l'apprentissage automatique (en anglais : machine learning) qui combine l'apprentissage par renforcement et l'apprentissage profond (en anglais : deep learning). L'apprentissage par renforcement considère le problème d'un agent informatique (par exemple, un robot, un agent conversationnel, un personnage dans un jeu vidéo, etc.) qui apprend à prendre des décisions par essais et erreurs.
Agent-based modelAn agent-based model (ABM) is a computational model for simulating the actions and interactions of autonomous agents (both individual or collective entities such as organizations or groups) in order to understand the behavior of a system and what governs its outcomes. It combines elements of game theory, complex systems, emergence, computational sociology, multi-agent systems, and evolutionary programming. Monte Carlo methods are used to understand the stochasticity of these models.