Opérateur de transfertEn mathématiques, l'opérateur de transfert encode l'information d'une application itérée et est fréquemment utilisé pour étudier le comportement des systèmes dynamiques, de la mécanique statistique, du chaos quantique et des fractales. L'opérateur de transfert est quelquefois appelé l'opérateur de Ruelle, en l'honneur de David Ruelle, ou l'opérateur de Ruelle-Perron-Frobenius faisant référence à l'applicabilité du théorème de Perron-Frobenius pour la détermination des valeurs propres de l'opérateur.
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Système dynamique mesuréUn système dynamique mesuré est un objet mathématique, représentant un espace de phases muni d'une loi d'évolution, particulièrement étudié en théorie ergodique. Un système dynamique mesuré est la donnée d'un espace probabilisé et d'une application mesurable f : X → X. On exige que f préserve la mesure, ce qui veut dire que : Cette propriété très riche permet d'obtenir de puissants théorèmes. Par ailleurs, un théorème affirme qu'il existe, pour toute transformation continue X → X d'un espace topologique compact X, une mesure de probabilité, borélienne, préservant cette transformation.
Processus de BernoulliEn probabilités et en statistiques, un processus de Bernoulli est un processus stochastique discret qui consiste en une suite de variables aléatoires indépendantes qui prennent leurs valeurs parmi deux symboles. Prosaïquement, un processus de Bernoulli consiste à tirer à pile ou face plusieurs fois de suite, éventuellement avec une pièce truquée. Une variable dans une séquence de ce type peut être qualifiée de variable de Bernoulli. Un processus de Bernoulli est une chaîne de Markov. Son arbre de probabilité est un arbre binaire.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Information quantiqueLa théorie de l'information quantique, parfois abrégée simplement en information quantique, est un développement de la théorie de l'information de Claude Shannon exploitant les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication. L'unité qui est utilisée pour quantifier l'information quantique est le qubit, par analogie avec le bit d'information classique.
Flot (mathématiques)Le flot, coulée ou encore courant est, en mathématiques, un concept fondamental utilisé en géométrie différentielle. La notion de flot permet notamment de modéliser le déplacement dans le temps des éléments d'un fluide. Pour ce faire, on crée une application α qui, à chaque point x de l'espace concerné par l'écoulement, associe un autre point α(x,t), correspondant à la position qu'aurait une particule du fluide à l'instant t, si elle avait été située en x à l'instant 0. thumb|Flot associé à l'équation différentielle d'un pendule.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Système dissipatifUn système dissipatif (ou structure dissipative) est un système qui évolue dans un environnement avec lequel il échange de l'énergie ou de la matière. C'est donc un système ouvert, loin d'un équilibre thermodynamique. Un système dissipatif est caractérisé par le bilan de ses échanges (échange d'énergie, création d'entropie), et l'apparition spontanée d'une brisure de symétrie spatiale (anisotropie) qui peut quelquefois laisser apparaître une structure complexe chaotique. L'expression « structures dissipatives » fut créée par Ilya Prigogine.
One-dimensional spaceIn physics and mathematics, a sequence of n numbers can specify a location in n-dimensional space. When n = 1, the set of all such locations is called a one-dimensional space. An example of a one-dimensional space is the number line, where the position of each point on it can be described by a single number. In algebraic geometry there are several structures that are technically one-dimensional spaces but referred to in other terms. A field k is a one-dimensional vector space over itself.