Théorie des ensemblesLa théorie des ensembles est une branche des mathématiques, créée par le mathématicien allemand Georg Cantor à la fin du . La théorie des ensembles se donne comme primitives les notions d'ensemble et d'appartenance, à partir desquelles elle reconstruit les objets usuels des mathématiques : fonctions, relations, entiers naturels, relatifs, rationnels, nombres réels, complexes... C'est pourquoi la théorie des ensembles est considérée comme une théorie fondamentale dont Hilbert a pu dire qu'elle était un « paradis » créé par Cantor pour les mathématiciens.
George PólyaGeorge (György) Pólya, né à Budapest (Hongrie) le dans une famille juive hongroise convertie au catholicisme en 1886 et mort à Palo Alto (États-Unis) le , est un mathématicien américain d'origine hongroise et suisse. Après des études secondaires classiques, il est admis en 1905 à l'université de Budapest où il passe du droit à la linguistique, à la philosophie et finalement à la physique et aux mathématiques. En 1910-1911, il poursuit ses études à l'université de Vienne puis retourne à Budapest pour un doctorat de mathématiques, et séjourne bientôt à Göttingen puis à Paris en 1914.
John Horton ConwayJohn Horton Conway, né le à Liverpool et mort le à New Brunswick (New Jersey), est un mathématicien britannique. Il s'est intéressé aux théories des groupes finis, des nœuds, des nombres, des jeux et du codage. Né en 1937 en Angleterre, John Horton Conway s'intéresse très tôt aux mathématiques et décide de devenir mathématicien dès l'âge de 11 ans. Il étudie les mathématiques à Cambridge, au Gonville and Caius College, et obtient son Bachelor of Arts en 1959.
Problème de la mesure quantiqueLe problème de la mesure quantique consiste en un ensemble de problèmes, qui mettent en évidence des difficultés de corrélation entre les postulats de la mécanique quantique et le monde macroscopique tel qu'il nous apparaît ou tel qu'il est mesuré.
Alan Turingvignette|Alan Turing vers 1938. Alan Mathison Turing, né le à Londres et mort le à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l'on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du .
Postulats de la mécanique quantiquevignette|Participants au Congrès Solvay de 1927 sur la mécanique quantique Cet article traite des postulats de la mécanique quantique. La description du monde microscopique que fournit la mécanique quantique s'appuie sur une vision radicalement nouvelle, et s'oppose en cela à la mécanique classique. Elle repose sur des postulats. S'il existe un très large consensus entre les physiciens sur la manière de réaliser les calculs qui permettent de rendre compte des phénomènes quantiques et de prévoir leur évolution, il n'existe pas en revanche de consensus sur une manière unique de les expliquer aux étudiants.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Principe d'incertitudeEn mécanique quantique, le principe d'incertitude ou, plus correctement, principe d'indétermination, aussi connu sous le nom de principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position (x) et sa quantité de mouvement (p).
Théorie des jeuxLa théorie des jeux est un domaine des mathématiques qui propose une description formelle d'interactions stratégiques entre agents (appelés « joueurs »). Les fondements mathématiques de la théorie moderne des jeux sont décrits autour des années 1920 par Ernst Zermelo dans l'article , et par Émile Borel dans l'article . Ces idées sont ensuite développées par Oskar Morgenstern et John von Neumann en 1944 dans leur ouvrage qui est considéré comme le fondement de la théorie des jeux moderne.
ComputationA computation is any type of arithmetic or non-arithmetic calculation that is well-defined. Common examples of computations are mathematical equations and computer algorithms. Mechanical or electronic devices (or, historically, people) that perform computations are known as computers. The study of computation is the field of computability, itself a sub-field of computer science. The notion that mathematical statements should be ‘well-defined’ had been argued by mathematicians since at least the 1600s, but agreement on a suitable definition proved elusive.