Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Théorie du chaosLa théorie du chaos est une théorie scientifique rattachée aux mathématiques et à la physique qui étudie le comportement des systèmes dynamiques sensibles aux conditions initiales, un phénomène généralement illustré par l'effet papillon. Dans de nombreux systèmes dynamiques, des modifications infimes des conditions initiales entraînent des évolutions rapidement divergentes, rendant toute prédiction impossible à long terme.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.
Décalage de Bernoulli (langage formel)Un décalage de Bernoulli (en anglais Bernoulli shift) est une transformation opérant sur des mots de longueur infinie, étudiée en dynamique symbolique. Étant donné un alphabet Λ, c'est-à-dire un ensemble fini. Un mot infini est une suite à valeurs dans l'alphabet Λ. Le décalage de Bernoulli est l'application qui décale un mot d'un cran vers la gauche : On peut définir de même les décalages de Bernoulli pour des mots infinis indexés sur et les résultats et propriétés énoncés sont similaires.
Canal binaire symétriqueAlice veut transmettre un message à Bob. Un canal binaire symétrique est un canal discret où Alice transmet une suite d’éléments de l'ensemble et où la probabilité d'erreur dans la transmission d'un symbole est de , pour 0 et pour 1 (d'où la symétrie). Ce canal est sans mémoire, c'est-à-dire qu'aucune archive des messages n'est conservée. En communication, un problème classique est d'envoyer de l'information d'une source à une destination via un canal de communication, en présence de bruit.
Processus de BernoulliEn probabilités et en statistiques, un processus de Bernoulli est un processus stochastique discret qui consiste en une suite de variables aléatoires indépendantes qui prennent leurs valeurs parmi deux symboles. Prosaïquement, un processus de Bernoulli consiste à tirer à pile ou face plusieurs fois de suite, éventuellement avec une pièce truquée. Une variable dans une séquence de ce type peut être qualifiée de variable de Bernoulli. Un processus de Bernoulli est une chaîne de Markov. Son arbre de probabilité est un arbre binaire.
Tent mapIn mathematics, the tent map with parameter μ is the real-valued function fμ defined by the name being due to the tent-like shape of the graph of fμ. For the values of the parameter μ within 0 and 2, fμ the unit interval [0, 1] into itself, thus defining a discrete-time dynamical system on it (equivalently, a recurrence relation). In particular, iterating a point x0 in [0, 1] gives rise to a sequence : where μ is a positive real constant.
Système complexevignette|Visualisation sous forme de graphe d'un réseau social illustrant un système complexe. Un système complexe est un ensemble constitué d'un grand nombre d'entités en interaction dont l'intégration permet d'achever un but commun. Les systèmes complexes sont caractérisés par des propriétés émergentes qui n'existent qu'au niveau du système et ne peuvent pas être observées au niveau de ses constituants. Dans certains cas, un observateur ne peut pas prévoir les rétroactions ou les comportements ou évolutions des systèmes complexes par le calcul, ce qui amène à les étudier à l'aide de la théorie du chaos.
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Système dynamiqueEn mathématiques, en chimie ou en physique, un système dynamique est la donnée d’un système et d’une loi décrivant l'évolution de ce système. Ce peut être l'évolution d'une réaction chimique au cours du temps, le mouvement des planètes dans le système solaire (régi par la loi universelle de la gravitation de Newton) ou encore l'évolution de la mémoire d'un ordinateur sous l'action d'un programme informatique. Formellement on distingue les systèmes dynamiques à temps discrets (comme un programme informatique) des systèmes dynamiques à temps continu (comme une réaction chimique).