Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
État solide (électronique)thumb|Comparaison entre un disque dur classique et un SSD (un dispositif à l'état solide). En électronique, le terme anglais Solid-state, peut être traduit en français par à l'état solide ou à l'état massif, ou encore statique. Il s'agit d'un circuit ou d'un dispositif construit entièrement de matériaux à l'état solide (non gazeux, ni liquide) et dans lequel les électrons, ou d'autres porteurs de charge, sont confinés dans un milieu à l'état solide. Les composants sont conçus spécialement pour commuter et amplifier ce courant électrique.
Protéineredresse=1.36|vignette|Représentation d'une protéine, ici deux sous-unités d'une molécule d'hémoglobine. On observe les représentées en couleur, ainsi que deux des quatre molécules d'hème, qui sont les groupes prosthétiques caractéristiques de cette protéine. redresse=1.36|vignette|Liaison peptidique –CO–NH– au sein d'un polypeptide. Le motif constitue le squelette de la protéine, tandis que les groupes liés aux sont les chaînes latérales des résidus d'acides aminés.
Repliement des protéinesthumb|right|300px|Repliement des protéines Le repliement des protéines est le processus physique par lequel un polypeptide se replie dans sa structure tridimensionnelle caractéristique dans laquelle il est fonctionnel. Chaque protéine commence sous forme de polypeptide, transcodée depuis une séquence d'ARNm en une chaîne linéaire d'acides aminés. Ce polypeptide ne possède pas à ce moment de structure tridimensionnelle développée (voir côté gauche de la figure).
Structure secondairethumb|200px|Schéma de la structure tridimensionnelle de la protéine myoglobine. Cette structure contient de hélices α mais pas de feuillets β. Cette protéine est la première dont la structure a été résolue par cristallographie en 1958, par Max Perutz et John Kendrew, ce qui leur a valu l'attribution du prix Nobel de chimie en 1962. En biochimie et en biologie structurale, la structure secondaire se rapporte uniquement à la description de la structure tridimensionnelle localement adoptée par certains segments de molécules biologiques (molécules définies comme étant des biopolymères, comme c’est le cas pour les protéines et les acides nucléiques (ADN/ARN)).
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Liaison hydrogènevignette|Liaison hydrogène entre des molécules d'eau. La liaison hydrogène ou pont hydrogène est une force intermoléculaire ou intramoléculaire impliquant un atome d'hydrogène et un atome électronégatif comme l'oxygène, l'azote et le fluor. L'intensité d'une liaison hydrogène est intermédiaire entre celle d'une liaison covalente et celle des forces de van der Waals (en général les liaisons hydrogène sont plus fortes que les interactions de van der Waals).
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Constante d'aciditévignette|350px|L'acide acétique, un acide faible, donne un proton (ion hydrogène, ici surcoloré en vert) à l'eau dans une réaction d'équilibre donnant l'ion acétate et l'ion hydronium (code couleur : rouge=oxygène, noir=carbone, blanc=hydrogène). En chimie, une constante d'acidité ou constante de dissociation acide, Ka, est une mesure quantitative de la force d'un acide en solution. C'est la constante d'équilibre de la réaction de dissociation d'une espèce acide dans le cadre des réactions acido-basiques.
Information de FisherEn statistique, l'information de Fisher quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. Elle a été introduite par R.A. Fisher. Soit f(x ; θ) la distribution de vraisemblance d'une variable aléatoire X (qui peut être multidimensionnelle), paramétrée par θ.