Bruit de mesureEn métrologie, le bruit de mesure est l'ensemble des signaux parasites qui se superposent au signal que l'on cherche à obtenir au moyen d'une mesure d'un phénomène physique. Ces signaux sont une gêne pour la compréhension de l'information que le signal transporte. La métrologie vise donc notamment à connaître leurs origines et à les caractériser, afin de les éliminer et d'obtenir le signal d'origine aussi distinctement que possible. La source du bruit d'origine externe est externe au système physique générant le signal utile et agit par influence sur celui-ci.
AttracteurDans l'étude des systèmes dynamiques, un attracteur (ou ensemble-limite) est un ensemble d'états vers lequel un système évolue de façon irréversible en l'absence de perturbations. Constituants de base de la théorie du chaos, au moins cinq types sont définis : ponctuel, quasi périodique, périodique, étrange et spatial. Stephen Smale serait à l'origine du terme attracteur.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Bruit de grenaillevignette|Illustration d'un bruit d'émission de photons : le nombre moyen de photons par pixel augmente, de gauche à droite et de haut en bas, dans une simulation d'un processus de Poisson à partir d'une photo. Un bruit de grenaille, bruit de Schottky ou bruit quantique (en anglais, shot noise) est un bruit de fond qui peut être modélisé par un processus de Poisson. En électronique, il est causé par le fait que le courant électrique n'est pas continu mais constitué de porteurs de charge élémentaires (en général des électrons).
Bruit additif blanc gaussienLe bruit additif blanc gaussien est un modèle élémentaire de bruit utilisé en théorie de l'information pour imiter de nombreux processus aléatoires qui se produisent dans la nature. Les adjectifs indiquent qu'il est : additif il s'ajoute au bruit intrinsèque du système d'information ; blanc sa puissance est uniforme sur toute la largeur de bande de fréquences du système, par opposition avec un bruit coloré qui privilégie une bande de fréquences par analogie avec une lumière colorée dans le spectre visible ; gaussien il a une distribution normale dans le domaine temporel avec une moyenne nulle (voir bruit gaussien).
Transformation du boulangerLa transformation du boulanger est une transformation basée sur l'idée d'un mélange analogue au pétrissage par un boulanger qui étire une pâte jusqu'à ce qu'elle soit d'épaisseur moitié, puis la coupe en deux et superpose les deux moitiés pour lui redonner sa dimension initiale, et ainsi de suite. Ce mélange est souvent évoqué en théorie du chaos. Dans ce cas, il s'agit d'une version continue de la transformation. Une version discrète de cette transformation existe aussi pour manipuler des images informatiques.
Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
Dynamique symboliqueEn mathématiques, la dynamique symbolique est une branche de l'étude des systèmes dynamiques. Cela consiste à étudier un système en partitionnant l'espace en un nombre fini de régions et en s'intéressant aux suites possibles de régions traversées lors de l'évolution du système. Si l'on associe à chaque région un symbole, on peut associer à chaque trajectoire une suite (infinie) de symboles, d'où le nom de « dynamique symbolique ».
Rapport signal sur bruitEn électronique, le rapport signal sur bruit (SNR, ) est le rapport des puissances entre la partie du signal qui représente une information et le reste, qui constitue un bruit de fond. Il est un indicateur de la qualité de la transmission d'une information. L'expression d'un rapport signal sur bruit se fonde implicitement sur le principe de superposition, qui pose que le signal total est la somme de ces composantes. Cette condition n'est vraie que si le phénomène concerné est linéaire.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.