Théorie des jeuxLa théorie des jeux est un domaine des mathématiques qui propose une description formelle d'interactions stratégiques entre agents (appelés « joueurs »). Les fondements mathématiques de la théorie moderne des jeux sont décrits autour des années 1920 par Ernst Zermelo dans l'article , et par Émile Borel dans l'article . Ces idées sont ensuite développées par Oskar Morgenstern et John von Neumann en 1944 dans leur ouvrage qui est considéré comme le fondement de la théorie des jeux moderne.
Jeu à somme nulleUn jeu de somme nulle est un jeu où la somme des gains et des pertes de tous les joueurs est égale à 0. Cela signifie donc que le gain de l'un constitue obligatoirement une perte pour l'autre. Par exemple si l'on définit le gain d'une partie d'échecs comme 1 si on gagne, 0 si la partie est nulle et -1 si on perd, le jeu d'échecs est un jeu à somme nulle. En économie, cette notion simplificatrice est importante : les jeux à somme nulle correspondent à l'absence de production ou de destruction de produits.
Stratégie (théorie des jeux)En théorie des jeux, la stratégie d'un joueur est l’une des options qu’il choisit dans un contexte où le résultat dépend non seulement de ses propres actions, mais également de celles des autres . La stratégie d'un joueur déterminera l'action qu'il entreprendra à n'importe quel stade de la partie. Une stratégie est un algorithme complet pour jouer à un jeu permettant au joueur de déterminer ce qu’il doit faire dans toutes les situations possibles du jeu.
Équilibre de Nashvignette|Le dilemme du prisonnier : chacun des deux joueurs dispose de deux stratégies : D pour dénoncer, C pour ne pas dénoncer. La matrice présente le gain des joueurs. Si les deux joueurs choisissent D (se dénoncent), aucun ne regrette son choix, car s'il avait choisi C, alors que l'autre a opté pour D, sa « tristesse » aurait augmenté. C'est un équilibre de Nash — il y a « non-regret » de son choix par chacun, au vu du choix de l'autre.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Algorithme de colonies de fourmisLes algorithmes de colonies de fourmis (, ou ACO) sont des algorithmes inspirés du comportement des fourmis, ou d'autres espèces formant un superorganisme, et qui constituent une famille de métaheuristiques d’optimisation. Initialement proposé par Marco Dorigo dans les années 1990, pour la recherche de chemins optimaux dans un graphe, le premier algorithme s’inspire du comportement des fourmis recherchant un chemin entre leur colonie et une source de nourriture.
Algorithmethumb|Algorithme de découpe d'un polygone quelconque en triangles (triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryptographie, le routage d'informations, la planification et l'utilisation optimale des ressources, le , le traitement de textes, la bio-informatique L' algorithme peut être mis en forme de façon graphique dans un algorigramme ou organigramme de programmation.
Optimisation combinatoireL’optimisation combinatoire, (sous-ensemble à nombre de solutions finies de l'optimisation discrète), est une branche de l'optimisation en mathématiques appliquées et en informatique, également liée à la recherche opérationnelle, l'algorithmique et la théorie de la complexité. Dans sa forme la plus générale, un problème d'optimisation combinatoire (sous-ensemble à nombre de solutions finies de l'optimisation discrète) consiste à trouver dans un ensemble discret un parmi les meilleurs sous-ensembles (ou solutions) réalisables, la notion de meilleure solution étant définie par une fonction objectif.
Stratégie du bras de ferLe jeu du poulet (de l'anglais chicken game) ou le bras de fer (selon la terminologie officielle en France), également connu sous le nom de jeu du faucon et de la colombe ou jeu de la « neige soufflée » , est un modèle de conflit entre deux acteurs, en théorie des jeux. Le principe du jeu est que s'il est avantageux pour l'un des deux joueurs qu'un joueur cède, le choix optimal de l'autre joueur dépend de ce que fait son adversaire : si l'adversaire cède, il ne devrait pas le faire, mais si au contraire l'adversaire ne cède pas, le joueur devrait céder.
Jeu de coordinationDans la théorie des jeux, les jeux de coordination sont une classe de jeux comportant de multiples équilibres de stratégie purs dans lesquels les joueurs choisissent les mêmes stratégies ou des stratégies correspondantes. Un cas typique pour un jeu de coordination consiste à choisir les côtés de la route sur lesquels conduire, une norme sociale qui peut sauver des vies si elle est largement respectée. Dans un exemple simplifié, supposons que deux conducteurs se rencontrent sur un chemin de terre étroit.