Matrice aléatoireEn théorie des probabilités et en physique mathématique, une matrice aléatoire est une matrice dont les éléments sont des variables aléatoires. La théorie des matrices aléatoires a pour objectif de comprendre certaines propriétés de ces matrices, comme leur norme d'opérateur, leurs valeurs propres ou leurs valeurs singulières. Face à la complexité croissante des spectres nucléaires observés expérimentalement dans les années 1950, Wigner a suggéré de remplacer l'opérateur hamiltonien du noyau par une matrice aléatoire.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Interférence inter-symboleEn télécommunications, une interférence inter-symbole (en anglais, intersymbol interference ou ISI) est une forme de distorsion d'un signal qui a pour effet que le symbole transmis précédemment affecte le symbole actuellement reçu. C'est en principe un effet non désiré car l'effet du symbole précédent agit comme du bruit, ce qui rend la communication moins fiable. Il existe des solutions pour réduire les interférences inter-symboles par exemple l'algorithme de Viterbi, l'OFDM et l'OFDMA.
InterférenceEn mécanique ondulatoire, les interférences sont la combinaison de deux ondes susceptibles d'interagir. Ce phénomène apparaît souvent en optique avec les ondes lumineuses, mais il s'obtient également avec des ondes électromagnétiques d'autres longueurs d'onde, ou avec d'autres types d'ondes comme des ondes sonores. À savoir aussi, le phénomène d'interférence se produit uniquement lors de la combinaison de deux ondes de même fréquence. L' onde se modélise par une fonction , étant la position dans l'espace et t étant le temps.
Polynôme d'HermiteEn mathématiques, les polynômes d'Hermite sont une suite de polynômes qui a été nommée ainsi en l'honneur de Charles Hermite (bien qu'ils aient été définis, sous une autre forme, en premier par Pierre-Simon Laplace en 1810, surtout été étudiés par Joseph-Louis Lagrange lors de ses travaux sur les probabilités puis en détail par Pafnouti Tchebychev six ans avant Hermite). Ils sont parfois décrits comme des polynômes osculateurs.
Polynôme de LaguerreEn mathématiques, les polynômes de Laguerre, nommés d'après Edmond Laguerre, sont les solutions normalisées de l'équation de Laguerre : qui est une équation différentielle linéaire homogène d'ordre 2 et se réécrit sous la forme de Sturm-Liouville : Cette équation a des solutions non singulières seulement si n est un entier positif. Les solutions L forment une suite de polynômes orthogonaux dans L (R, edx), et la normalisation se fait en leur imposant d'être de norme 1, donc de former une famille orthonormale.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Analyse en composantes principalesL'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux.
Ratio distributionA ratio distribution (also known as a quotient distribution) is a probability distribution constructed as the distribution of the ratio of random variables having two other known distributions. Given two (usually independent) random variables X and Y, the distribution of the random variable Z that is formed as the ratio Z = X/Y is a ratio distribution. An example is the Cauchy distribution (also called the normal ratio distribution), which comes about as the ratio of two normally distributed variables with zero mean.