Concepts associés (40)
Infinite divisibility (probability)
In probability theory, a probability distribution is infinitely divisible if it can be expressed as the probability distribution of the sum of an arbitrary number of independent and identically distributed (i.i.d.) random variables. The characteristic function of any infinitely divisible distribution is then called an infinitely divisible characteristic function. More rigorously, the probability distribution F is infinitely divisible if, for every positive integer n, there exist n i.i.d. random variables Xn1, .
Loi des grands nombres
vignette|Visualisation de la loi des grands nombres En mathématiques, la loi des grands nombres permet d’interpréter la probabilité comme une fréquence de réalisation, justifiant ainsi le principe des sondages, et présente l’espérance comme une moyenne. Plus formellement, elle signifie que la moyenne empirique, calculée sur les valeurs d’un échantillon, converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini. Plusieurs théorèmes expriment cette loi, pour différents types de convergence en théorie des probabilités.
Théorème de convergence de Lévy
En théorie des probabilités, le théorème de convergence de Lévy, nommé d'après le mathématicien Paul Lévy, relie la convergence en loi d'une suite de variables aléatoires avec la convergence ponctuelle de leurs fonctions caractéristiques. Ce théorème est également appelé théorème de continuité de Lévy, théorème de continuité de Lévy-Cramér ou encore en associant d'autres noms tels que théorème de Lévy-Cramér-Dugué. Ce théorème de convergence fondamental est particulièrement utile pour démontrer le théorème central limite.
Loi du χ² non centrée
En théorie des probabilités et en statistique, la loi du χ non centrée est une loi de probabilité qui généralise la loi du χ2. Cette loi apparait lors de tests statistiques, par exemple pour le maximum de vraisemblance. Soit X, k variables aléatoires indépendantes de loi normale de moyennes et variances . Alors la variable aléatoire suit une loi du χ non centrée. Elle dépend de deux paramètres : k qui spécifie le nombre de degrés de liberté (c'est-à-dire le nombre de X), et λ qui est en lien avec la moyenne des variables X par la formule : est parfois appelé le paramètre de décentralisation.
Théorème central limite
thumb|upright=2|La loi normale, souvent appelée la « courbe en cloche ». Le théorème central limite (aussi appelé théorème limite central, théorème de la limite centrale ou théorème de la limite centrée) établit la convergence en loi de la somme d'une suite de variables aléatoires vers la loi normale. Intuitivement, ce résultat affirme qu'une somme de variables aléatoires indépendantes et identiquement distribuées tend (le plus souvent) vers une variable aléatoire gaussienne.
Convergence de variables aléatoires
Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe).
Série d'Edgeworth
La série A de Gram-Charlier (nommée en l'honneur de Jørgen Pedersen Gram et Carl Charlier) et la série d'Edgeworth (nommée en l'honneur de Francis Ysidro Edgeworth) sont des séries qui se rapprochent d'une distribution de probabilité exprimée à partir de ses cumulants . Les séries sont identiques, mais l'arrangement des termes (et donc la précision de la troncature de la série) diffère.
Loi de Laplace (probabilités)
En théorie des probabilités et en statistiques, la loi (distribution) de Laplace est une densité de probabilité continue, portant le nom de Pierre-Simon de Laplace. On la connaît aussi sous le nom de loi double exponentielle, car sa densité peut être vue comme l'association des densités de deux lois exponentielles, accolées dos à dos. La loi de Laplace s'obtient aussi comme résultat de la différence de deux variables exponentielles indépendantes.
Fonction génératrice des moments
En théorie des probabilités et en statistique, la fonction génératrice des moments d'une variable aléatoire est la fonction M définie par pour tout réel t tel que cette espérance existe. Cette fonction, comme son nom l'indique, est utilisée afin d'engendrer les moments associés à la distribution de probabilités de la variable aléatoire .
Loi de Poisson
En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.