Facteur de bruitLe facteur de bruit (noise figure ou noise factor en anglais) d'un dispositif électronique quelconque, actif ou passif, quantifie la dégradation relative du rapport signal sur bruit entre sa sortie et son entrée, et ce en prenant comme hypothèse que la température ambiante est de , donc que le bruit de fond en entrée est un bruit thermique correspondant à cette température de référence de . Autrement dit, le facteur de bruit est défini comme le quotient des rapports signal sur bruit en entrée et en sortie de ce même dispositif quand le bruit en entrée est un bruit thermique à la température normalisée To=.
Système dynamiqueEn mathématiques, en chimie ou en physique, un système dynamique est la donnée d’un système et d’une loi décrivant l'évolution de ce système. Ce peut être l'évolution d'une réaction chimique au cours du temps, le mouvement des planètes dans le système solaire (régi par la loi universelle de la gravitation de Newton) ou encore l'évolution de la mémoire d'un ordinateur sous l'action d'un programme informatique. Formellement on distingue les systèmes dynamiques à temps discrets (comme un programme informatique) des systèmes dynamiques à temps continu (comme une réaction chimique).
DébruitageLe débruitage est une technique d'édition qui consiste à supprimer des éléments indésirables (« bruit »), afin de rendre un document, un signal (numérique ou analogique) ou un environnement plus intelligible ou plus pur. Ne pas confondre le débruitage avec la réduction de bruit. Sur le plan sonore, le débruitage consiste à réduire ou anéantir le rendu d'ondes sonores « parasites » (ou « bruit »).
Modulation d'amplitudeLa modulation d'amplitude ou MA (AM en anglais) est une technique utilisée pour moduler un signal. Elle consiste en la multiplication du signal à moduler par un signal de fréquence moins élevée. La modulation d'amplitude consiste à faire varier l'amplitude d'un signal de fréquence élevée, le signal porteur, en fonction d'un signal de plus basse fréquence, le signal modulant. Ce dernier est celui qui contient l'information à transmettre (voix, par exemple, recueillie par un microphone).
Distance d'édition sur les arbresEn informatique théorique, en biochimie et aussi dans des applications, en vision par ordinateur par exemple, la distance d'édition d'arbres (en anglais tree edit distance) est une mesure qui évalue, en termes de nombre de transformations élémentaires, le nombre d'opérations nécessaires et leur coût pour passer d'un arbre à un autre. C'est une notion qui étend, aux arbres, la distance d'édition (ou distance de Levenshtein) entre chaînes de caractères.
Processus de BernoulliEn probabilités et en statistiques, un processus de Bernoulli est un processus stochastique discret qui consiste en une suite de variables aléatoires indépendantes qui prennent leurs valeurs parmi deux symboles. Prosaïquement, un processus de Bernoulli consiste à tirer à pile ou face plusieurs fois de suite, éventuellement avec une pièce truquée. Une variable dans une séquence de ce type peut être qualifiée de variable de Bernoulli. Un processus de Bernoulli est une chaîne de Markov. Son arbre de probabilité est un arbre binaire.
Shift spaceIn symbolic dynamics and related branches of mathematics, a shift space or subshift is a set of infinite words that represent the evolution of a discrete system. In fact, shift spaces and symbolic dynamical systems are often considered synonyms. The most widely studied shift spaces are the subshifts of finite type and the sofic shifts. In the classical framework a shift space is any subset of , where is a finite set, which is closed for the Tychonov topology and invariant by translations.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Théorème du codage de canalEn théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954.
Chat d'ArnoldEn mathématiques, l'application chat d'Arnold est une certaine bijection du tore vers lui-même. Cette fonction sert à illustrer des comportements chaotiques en théorie des systèmes dynamiques. Elle porte ce nom inhabituel parce que Vladimir Arnold l'a décrite en 1967 en s'aidant du dessin d'un chat. thumb|L'effet de l'opération modulo sur le parallélogramme. On peut repérer les points sur le tore à l'aide de deux coordonnées x et y chacune dans l'intervalle [0, 1], cela revient à « déplier » ce tore pour obtenir un carré.