École néoclassiqueL'école néoclassique est une école de pensée économique dont la thèse centrale est que les marchés disposent de mécanismes autorégulateurs qui, en l'absence d'intervention extérieure, conduisent à l'optimum économique ; l'État n'a ainsi qu'un rôle très mineur à jouer dans le domaine économique. Fondée par les économistes marginalistes Léon Walras, William Stanley Jevons et Carl Menger à la fin du , elle a dominé la science économique jusqu'à l'avènement du keynésianisme amendé.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Information economicsInformation economics or the economics of information is the branch of microeconomics that studies how information and information systems affect an economy and economic decisions. One application considers information embodied in certain types of commodities that are "expensive to produce but cheap to reproduce." Examples include computer software (e.g., Microsoft Windows), pharmaceuticals, and technical books. Once information is recorded "on paper, in a computer, or on a compact disc, it can be reproduced and used by a second person essentially for free.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Sciences du jeuLes sciences du jeu (game studies en anglais) forment un champ de recherche pluridisciplinaire consacré à l'étude des jeux. Le thème du jeu a été relativement peu étudié par les sciences sociales, malgré son caractère universel et la place qu'il a occupé dans la réflexion des philosophes antiques comme Platon et Aristote. Si quelques historiens, sociologues, ethnologues et philosophes comme Eugen Fink, Leo Frobenius, Johan Huizinga, Roger Caillois, ou encore Colas Duflo, ont déjà abordé le sujet, ce n'est que récemment qu'il fait l'objet d'un champ de recherche structuré à part entière, encouragé par le succès culturel et économique des jeux sur support numérique.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Dependence logicDependence logic is a logical formalism, created by Jouko Väänänen, which adds dependence atoms to the language of first-order logic. A dependence atom is an expression of the form , where are terms, and corresponds to the statement that the value of is functionally dependent on the values of . Dependence logic is a logic of imperfect information, like branching quantifier logic or independence-friendly logic (IF logic): in other words, its game-theoretic semantics can be obtained from that of first-order logic by restricting the availability of information to the players, thus allowing for non-linearly ordered patterns of dependence and independence between variables.
Apprentissage par renforcement profondL'apprentissage par renforcement profond (en anglais : deep reinforcement learning ou deep RL) est un sous-domaine de l'apprentissage automatique (en anglais : machine learning) qui combine l'apprentissage par renforcement et l'apprentissage profond (en anglais : deep learning). L'apprentissage par renforcement considère le problème d'un agent informatique (par exemple, un robot, un agent conversationnel, un personnage dans un jeu vidéo, etc.) qui apprend à prendre des décisions par essais et erreurs.
Modèle scandinaveLe modèle scandinave (ou capitalisme scandinave ou social-démocratie scandinave) fait référence au modèle économique et aux modèles sociaux des pays scandinaves (Danemark, Norvège et Suède), ou nordiques (en y ajoutant donc la Finlande et l'Islande), conjuguant économie de marché et état-providence. Bien qu’il existe des différences significatives entre les pays scandinaves ou nordiques, ils ont tous des points communs.
Independence-friendly logicIndependence-friendly logic (IF logic; proposed by Jaakko Hintikka and Gabriel Sandu in 1989) is an extension of classical first-order logic (FOL) by means of slashed quantifiers of the form and , where is a finite set of variables. The intended reading of is "there is a which is functionally independent from the variables in ". IF logic allows one to express more general patterns of dependence between variables than those which are implicit in first-order logic.