Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Waveform Audio File FormatLe Waveform Audio File Format (WAVE, ou WAV en rapport avec son extension de fichier), est un format conteneur destiné au stockage de l'audio numérique mis au point par Microsoft et IBM. Le format WAVE est construit conformément au , c'est pourquoi on parle parfois de « RIFF/WAVE ». Le format WAV est un format conteneur capable de recevoir des flux audio aussi variés que le MP3, l'AC-3, l'ATRAC, l'ADPCM, le PCM. Ce dernier étant de très loin le plus courant, les fichiers .
Loi bêta primeEn théorie des probabilités et en statistique, la loi bêta prime (également connue sous les noms loi bêta II ou loi bêta du second type) est une loi de probabilité continue définie dont le support est et dépendant de deux paramètres de forme. Si une variable aléatoire X suit une loi bêta prime, on notera . Sa densité de probabilité est donnée par : où B est la fonction bêta. Cette loi est une loi de Pearson de type VI. Le mode d'une variable aléatoire de loi bêta prime est .
Phase-shift keyingLe phase-shift keying (ou PSK, soit « modulation par changement de phase ») désigne une famille de formes de modulations numériques qui ont toutes pour principe de véhiculer de l'information binaire via la phase d'un signal de référence (porteuse), et exclusivement par ce biais. Comme pour toute technique de modulation numérique, la phase en question ne peut prendre qu'un nombre fini de valeurs. Chacune de ces valeurs représente un unique nombre binaire, dont la taille (et donc la quantité d'information transmise) dépend du nombre de valeurs possibles pour la phase.
Loi géométriqueEn théorie des probabilités et en statistique, la loi géométrique désigne, selon la convention choisie, l'une des deux lois de probabilité suivantes : la loi du nombre X d'épreuves de Bernoulli indépendantes de probabilité de succès p ∈ ]0,1[ (ou q = 1 – p d'échec) nécessaire pour obtenir le premier succès. X est la variable aléatoire donnant le rang du premier succès. Le support de la loi est alors {1, 2, 3, ...}. La loi du nombre Y = X – 1 d'échecs avant le premier succès. Le support de la loi est alors {0, 1, 2, 3, .
Loi d'ErlangLa distribution d'Erlang est une loi de probabilité continue, dont l'intérêt est dû à sa relation avec les distributions exponentielle et Gamma. Cette distribution a été développée par Agner Krarup Erlang afin de modéliser le nombre d'appels téléphoniques simultanés. La distribution est continue et possède deux paramètres : le paramètre de forme , un entier, et le paramètre d'intensité , un réel. On utilise parfois une paramétrisation alternative, où on considère plutôt le paramètre d'échelle .
Équipartition de l'énergiethumb|266px|Agitation thermique d’un peptide avec une structure en hélice alpha. Les mouvements sont aléatoires et complexes, l’énergie d’un atome peut fluctuer énormément. Néanmoins, le théorème d’équipartition permet de calculer l’énergie cinétique moyenne de chaque atome ainsi que l’énergie potentielle moyenne de nombreux modes de vibration. Les sphères grises, rouges et bleues représentent des atomes de carbone, d’oxygène et d’azote respectivement. Les sphères blanches plus petites représentent des atomes d’hydrogène.
PrecodingPrecoding is a generalization of beamforming to support multi-stream (or multi-layer) transmission in multi-antenna wireless communications. In conventional single-stream beamforming, the same signal is emitted from each of the transmit antennas with appropriate weighting (phase and gain) such that the signal power is maximized at the receiver output. When the receiver has multiple antennas, single-stream beamforming cannot simultaneously maximize the signal level at all of the receive antennas.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.