Quantum spin liquidIn condensed matter physics, a quantum spin liquid is a phase of matter that can be formed by interacting quantum spins in certain magnetic materials. Quantum spin liquids (QSL) are generally characterized by their long-range quantum entanglement, fractionalized excitations, and absence of ordinary magnetic order. The quantum spin liquid state was first proposed by physicist Phil Anderson in 1973 as the ground state for a system of spins on a triangular lattice that interact antiferromagnetically with their nearest neighbors, i.
Physique de la matière condenséeLa physique de la matière condensée est la branche de la physique qui étudie les propriétés microscopiques et macroscopiques de la matière dans un état dit « condensé ». Ce terme doit être entendu par opposition à d'autres états de la matière, plus dilués, tels que l’état gazeux et les plasmas, ou encore par opposition à l’étude des atomes ou molécules isolés ou peu nombreux. Son objet d’étude consiste donc principalement dans les solides, ce qui explique que cette branche de la physique a longtemps été désignée par le terme de « physique des solides ».
Frustration géométriqueExpliquer la stabilité d'un solide est une question centrale en physique de la matière condensée. Possibles dans le cas des molécules, les calculs quantiques les plus précis montrent souvent une grande diversité pour les configurations atomiques de faible énergie. Du fait de leur taille macroscopique, et donc du nombre astronomique d'atomes mis en jeu, la même étude pour les solides impose que de nombreuses approximations soient faites pour calculer leur énergie de cohésion.
AntiferromagnétismeL'antiferromagnétisme est une propriété de certains milieux magnétiques prédite par Louis Néelen 1936. Contrairement aux matériaux ferromagnétiques, dans les matériaux antiferromagnétiques, l’interaction d’échange entre les atomes voisins favorise un alignement antiparallèle des moments magnétiques atomiques. Dans l'état fondamental, les moments magnétiques moyens sur les sous-réseaux distincts peuvent être non-nuls mais se compenser à l'échelle macroscopique. L'aimantation totale du matériau est alors nulle.
Pearson correlation coefficientIn statistics, the Pearson correlation coefficient (PCC) is a correlation coefficient that measures linear correlation between two sets of data. It is the ratio between the covariance of two variables and the product of their standard deviations; thus, it is essentially a normalized measurement of the covariance, such that the result always has a value between −1 and 1. As with covariance itself, the measure can only reflect a linear correlation of variables, and ignores many other types of relationships or correlations.
FerromagnétismeLe ferromagnétisme est le mécanisme fondamental par lequel certains matériaux (fer, cobalt, nickel...) sont attirés par des aimants ou forment des aimants permanents. On distingue en physique différents types de magnétismes. Le ferromagnétisme (qui inclut le ferrimagnétisme) se trouve être celui à l’origine des champs magnétiques les plus importants : c’est celui qui crée des forces suffisamment importantes pour être senties et qui est responsable du phénomène bien connu de magnétisme dans les aimants de la vie quotidienne.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.