Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Quantities of informationThe mathematical theory of information is based on probability theory and statistics, and measures information with several quantities of information. The choice of logarithmic base in the following formulae determines the unit of information entropy that is used. The most common unit of information is the bit, or more correctly the shannon, based on the binary logarithm.
Information quantiqueLa théorie de l'information quantique, parfois abrégée simplement en information quantique, est un développement de la théorie de l'information de Claude Shannon exploitant les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication. L'unité qui est utilisée pour quantifier l'information quantique est le qubit, par analogie avec le bit d'information classique.
Potentiel de reposLe potentiel de repos membranaire (RMP, pour l'anglais resting membrane potential) est le potentiel électrochimique de membrane de la membrane plasmique d'une cellule excitable lorsqu'elle est au repos ; c'est un des états possibles du potentiel de la membrane. En introduisant une électrode de mesure à l'intérieur de la cellule (voir la méthode de patch-clamp), on constate une différence de potentiel : la face interne de la membrane est négative par rapport à une électrode de référence placée sur la face externe de la membrane.
Interaction informationThe interaction information is a generalization of the mutual information for more than two variables. There are many names for interaction information, including amount of information, information correlation, co-information, and simply mutual information. Interaction information expresses the amount of information (redundancy or synergy) bound up in a set of variables, beyond that which is present in any subset of those variables. Unlike the mutual information, the interaction information can be either positive or negative.
Potentiel électrochimique de membraneToute cellule biologique est entourée d'une membrane dite membrane plasmique. Cette membrane est relativement imperméable aux espèces électriquement chargées telles que les ions et aux molécules qui peuvent participer à l'activité électrochimique (molécules polaires) telles que l'eau. Elle présente ainsi une grande résistance électrique et forme en quelque sorte un dipôle (comme un condensateur). Grâce à ces propriétés, la membrane sépare en deux compartiments étanches l'intérieur de la cellule, le cytoplasme, de l'extérieur de la cellule, le milieu extracellulaire.
Variation of informationIn probability theory and information theory, the variation of information or shared information distance is a measure of the distance between two clusterings (partitions of elements). It is closely related to mutual information; indeed, it is a simple linear expression involving the mutual information. Unlike the mutual information, however, the variation of information is a true metric, in that it obeys the triangle inequality. Suppose we have two partitions and of a set into disjoint subsets, namely and .
Pontvignette|Pont permettant le passage de la ligne C du métro de Rotterdam, à Capelle-sur-l'Yssel (Pays-Bas). vignette|Pont sur la rivière Moyka à Saint-Pétersbourg, Russie Un pont est un ouvrage d'art qui permet de franchir un obstacle naturel ou artificiel (dépression, cours d'eau, voie de communication, vallée, ravin, canyon) en passant par-dessus. Le franchissement supporte le passage d'humains et de véhicules dans le cas d'un pont routier, ou d'eau dans le cas d'un aqueduc.
Évaluation formativeLes concepts d’évaluation formative et sommative ont été apportés par Michael Scriven en 1967, dans le contexte de l’évaluation de programmes éducatifs (curriculum evaluation). Pour Scriven, une évaluation formative devait permettre à un établissement scolaire d’estimer la capacité de ses programmes scolaires à atteindre leurs objectifs, de façon à guider les choix de l’école pour les améliorer progressivement, au contraire d’une évaluation sommative qui cherche à poser un jugement final sur les programmes : « marchent-ils » ou pas ? Et en conséquence, faut-il les maintenir, les étendre ou les abandonner ? Benjamin Bloom reprend dans les années suivantes cette distinction pour l’appliquer au processus d’apprentissage, notamment dans son ouvrage Handbook on formative and summative evaluation of student learning.