QuasigroupeEn mathématiques, et plus précisément en algèbre générale, un quasigroupe est un ensemble muni d'une loi de composition interne (un magma) pour laquelle (en pensant cette loi comme une multiplication), il est possible de diviser, à droite comme à gauche, le quotient à droite et le quotient à gauche étant uniques. En d'autre termes l'opération de multiplication à droite est bijective, de même que celle de multiplication à gauche. La loi n'est pas nécessairement associative, et si elle l'est, le quasigroupe est un groupe.
Fourier analysisIn mathematics, Fourier analysis (ˈfʊrieɪ,_-iər) is the study of the way general functions may be represented or approximated by sums of simpler trigonometric functions. Fourier analysis grew from the study of Fourier series, and is named after Joseph Fourier, who showed that representing a function as a sum of trigonometric functions greatly simplifies the study of heat transfer. The subject of Fourier analysis encompasses a vast spectrum of mathematics.
Opération binaireLes opérations en codage binaire sont traitées à l'article Fonction logique. En mathématiques, une opération binaire est une opération à deux arguments ou opérandes. C'est le cas notamment des lois de composition interne sur un ensemble, telle que l'addition des entiers ou la composition de fonctions. Mais une opération partiellement définie comme la division ou la puissance peut également être considérée comme une opération binaire.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Transformation de Fourierthumb|Portrait de Joseph Fourier. En mathématiques, plus précisément en analyse, la transformation de Fourier est une extension, pour les fonctions non périodiques, du développement en série de Fourier des fonctions périodiques. La transformation de Fourier associe à toute fonction intégrable définie sur R et à valeurs réelles ou complexes, une autre fonction sur R appelée transformée de Fourier dont la variable indépendante peut s'interpréter en physique comme la fréquence ou la pulsation.
Polarisation (optique)La polarisation est une propriété qu'ont les ondes vectorielles (ondes qui peuvent osciller selon plus d'une orientation) de présenter une répartition privilégiée de l'orientation des vibrations qui les composent. Les ondes électromagnétiques, telles que la lumière, ou les ondes gravitationnelles ont ainsi des propriétés de polarisation. Les ondes mécaniques transverses dans les solides peuvent aussi être polarisées. Cependant, les ondes longitudinales (telles que les ondes sonores) ne sont pas concernées.
PolariseurUn polariseur est un instrument d'optique qui sélectionne dans une onde lumineuse incidente une direction de polarisation préférentielle : la plupart des polariseurs permettent d'obtenir une lumière polarisée rectilignement dans une certaine direction. Dans ce cas, cette direction est appelée l’axe du polariseur. Mis en fin de système optique, le polariseur est appelé « analyseur ». Les polariseurs sont présents dans de nombreuses expériences d'optique et sont donc utilisés dans des instruments d'optique.
Série de Fouriervignette|250px|Les quatre premières sommes partielles de la série de Fourier pour un signal carré. vignette|250px|Le premier graphe donne l'allure du graphe d'une fonction périodique ; l'histogramme donne les valeurs des modules des coefficients de Fourier correspondant aux différentes fréquences. En analyse mathématique, les séries de Fourier sont un outil fondamental dans l'étude des fonctions périodiques. C'est à partir de ce concept que s'est développée la branche des mathématiques connue sous le nom d'analyse harmonique.
Théorème de Shannon-HartleyEn théorie de l'information, le théorème de Shannon-Hartley indique le débit maximal auquel l'information peut être transmise sur un canal de communication d'une bande passante spécifiée en présence de bruit. Il s'agit d'une application du théorème du codage de canal au cas archétypal du canal de communication analogique à temps continu soumis à un bruit gaussien.
Cryptographie quantiqueLa cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des niveaux de sécurité qui sont prouvés ou conjecturés non atteignables en utilisant uniquement des phénomènes classiques (c'est-à-dire non-quantiques). Un exemple important de cryptographie quantique est la distribution quantique de clés, qui permet de distribuer une clé de chiffrement secrète entre deux interlocuteurs distants, tout en assurant la sécurité de la transmission grâce aux lois de la physique quantique et de la théorie de l'information.