Un vecteur aléatoire est aussi appelé variable aléatoire multidimensionnelle.
Un vecteur aléatoire est une généralisation à n dimensions d'une variable aléatoire réelle. Alors qu'une variable aléatoire réelle est une fonction qui à chaque éventualité fait correspondre un nombre réel, le vecteur aléatoire est une fonction X qui à chaque éventualité fait correspondre un vecteur de :
où ω est l'élément générique de Ω, l'espace de toutes les éventualités possibles.
Les applications X, ..., X sont des variables aléatoires réelles appelées composantes du vecteur aléatoire X. On note alors X = (X, ..., X).
Une application X de (définie sur Ω), à valeurs dans l'espace muni de la tribu des boréliens de , est un vecteur aléatoire si elle est mesurable.
Soit un vecteur aléatoire. Sa fonction de répartition est ainsi définie :
Deux vecteurs aléatoires sont indépendants si et seulement si la probabilité que ces vecteurs prennent une valeur donnée est égale au produit des probabilités que chaque vecteur prenne une valeur donnée. De plus la covariance des deux vecteurs est nulle.
Soit un espace probabilisé. On pose trois vecteurs aléatoires.
Par leur indépendance, on a :
Un vecteur aléatoire de dimension n est un vecteur gaussien si toute combinaison linéaire de ses composantes est une variable gaussienne.
Soit un vecteur gaussien à valeurs dans . On note son espérance et sa matrice de covariance. Soit et . Alors le vecteur aléatoire est gaussien, son espérance est et sa matrice de covariance .
Étant donné un vecteur gaussien , alors chacune de ses composantes suit une loi gaussienne. En effet, pour tout , on peut écrire : , où est le symbole de Kronecker.
En revanche, la réciproque est fausse, on peut avoir les toutes les composantes d'un vecteur qui suivent chacune une loi gaussienne, sans pour autant que soit un vecteur gaussien. Par exemple, si et sont des variables aléatoires indépendantes de lois respectives gaussiennes centrée réduite et de Rademacher, admet comme atome et ne suit donc pas une loi gaussienne, donc n'est pas un vecteur gaussien.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Biology is becoming more and more a data science, as illustrated by the explosion of available genome sequences. This course aims to show how we can make sense of such data and harness it in order to
In probability theory and statistics, a covariance matrix (also known as auto-covariance matrix, dispersion matrix, variance matrix, or variance–covariance matrix) is a square matrix giving the covariance between each pair of elements of a given random vector. Any covariance matrix is symmetric and positive semi-definite and its main diagonal contains variances (i.e., the covariance of each element with itself). Intuitively, the covariance matrix generalizes the notion of variance to multiple dimensions.
vignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
En théorie des probabilités, on appelle loi normale multidimensionnelle, ou normale multivariée ou loi multinormale ou loi de Gauss à plusieurs variables, la loi de probabilité qui est la généralisation multidimensionnelle de la loi normale. gauche|vignette|Différentes densités de lois normales en un dimension. gauche|vignette|Densité d'une loi gaussienne en 2D. Une loi normale classique est une loi dite « en cloche » en une dimension.
Explore les promenades aléatoires sur des espaces discrets et leurs propriétés, y compris les variables aléatoires multivariées et les distributions de Poisson.
In the rapidly evolving landscape of machine learning research, neural networks stand out with their ever-expanding number of parameters and reliance on increasingly large datasets. The financial cost and computational resources required for the training p ...
EPFL2024
,
Given a family of nearly commuting symmetric matrices, we consider the task of computing an orthogonal matrix that nearly diagonalizes every matrix in the family. In this paper, we propose and analyze randomized joint diagonalization (RJD) for performing t ...
A key challenge across many disciplines is to extract meaningful information from data which is often obscured by noise. These datasets are typically represented as large matrices. Given the current trend of ever-increasing data volumes, with datasets grow ...