Information quantiqueLa théorie de l'information quantique, parfois abrégée simplement en information quantique, est un développement de la théorie de l'information de Claude Shannon exploitant les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication. L'unité qui est utilisée pour quantifier l'information quantique est le qubit, par analogie avec le bit d'information classique.
Quantification (signal)En traitement des signaux, la quantification est le procédé qui permet d'approcher un signal continu par les valeurs d'un ensemble discret d'assez petite taille. On parle aussi de quantification pour approcher un signal à valeurs dans un ensemble discret de grande taille par un ensemble plus restreint. L'application la plus courante de la quantification est la conversion analogique-numérique mais elle doit le développement de sa théorie aux problèmes de quantification pour la compression de signaux audio ou .
RadiogoniométrieLa radiogoniométrie est la détermination de la direction d'arrivée d'une onde électromagnétique. La radiogoniométrie a deux applications principales : en navigation : la radiogoniométrie d'un émetteur fixe et connu (un radiophare ou une radiobalise) permet de déterminer un lieu de position pour le récepteur et par conséquent une position en relevant au moins deux émetteurs , elle peut également être utilisée (avec un seul émetteur) pour rejoindre un port équipé d'un radiophare (technique dite de en , retour à la maison) ; en guerre électronique : la radiogoniométrie d'une émission hostile (radar, radio et autodirecteur de missile) permet de localiser cet émetteur soit en employant plusieurs récepteurs en des positions différentes, soit par calcul en fonction de la cinématique propre du récepteur.
Bruit additif blanc gaussienLe bruit additif blanc gaussien est un modèle élémentaire de bruit utilisé en théorie de l'information pour imiter de nombreux processus aléatoires qui se produisent dans la nature. Les adjectifs indiquent qu'il est : additif il s'ajoute au bruit intrinsèque du système d'information ; blanc sa puissance est uniforme sur toute la largeur de bande de fréquences du système, par opposition avec un bruit coloré qui privilégie une bande de fréquences par analogie avec une lumière colorée dans le spectre visible ; gaussien il a une distribution normale dans le domaine temporel avec une moyenne nulle (voir bruit gaussien).
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Réseau électrique intelligentUn réseau électrique intelligent, ou smart grid en anglais, est un réseau de distribution d'électricité qui favorise la circulation d’information entre les fournisseurs et les consommateurs afin d’ajuster le flux d’électricité en temps réel et d'en permettre une gestion plus efficace. Ce type de réseaux intelligents utilise des techniques informatiques pour optimiser la production, la distribution, la consommation et éventuellement le stockage de l'énergie afin de mieux coordonner l'ensemble des mailles du réseau électrique, du producteur au consommateur final.
Produit de convolutionEn mathématiques, le produit de convolution est un opérateur bilinéaire et un produit commutatif, généralement noté « ∗ », qui, à deux fonctions f et g sur un même domaine infini, fait correspondre une autre fonction « f ∗ g » sur ce domaine, qui en tout point de celui-ci est égale à l'intégrale sur l'entièreté du domaine (ou la somme si celui-ci est discret) d'une des deux fonctions autour de ce point, pondérée par l'autre fonction autour de l'origine — les deux fonctions étant parcourues en sens contraire