En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments.
L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant. En revanche les cumulants d'ordres 4 ou plus ne correspondent plus aux moments centrés.
L'utilisation des cumulants peut s'avérer utile car ils vérifient notamment la propriété suivante : le n-ième cumulant d'une somme de variables indépendantes est égal à la somme des n-ièmes cumulants de chaque variable de la somme.
Une loi avec des cumulants κn donnés peut être approchée par un développement d'Edgeworth.
Soit X une variable aléatoire à valeurs réelles. On définit d'abord la fonction génératrice des cumulants KX associée à X :
Les cumulants κn sont alors définis comme les coefficients dans le développement de KX en série exponentielle :
Si on note μ = E(X) l'espérance de X et σ2 = E((X − μ)2) sa variance alors on a en particulier que μ = κ1 et σ2 = κ2.
Les cumulants sont donnés par les dérivées en 0 de KX :
La fonction génératrice des cumulants est intimement liée à la fonction génératrice des moments de la variable X. Travailler avec la fonction génératrice des cumulants est parfois plus pratique dans la mesure où pour des variables indépendantes X et Y :
Tandis qu'avec la fonction génératrice des moments on obtient :
On remarquera que
Certains auteurs préfèrent définir la fonction génératrice des cumulants plutôt comme le logarithme népérien de la fonction caractéristique. La fonction génératrice des cumulants prend alors parfois le nom de seconde fonction caractéristique.
Un avantage apparent à utiliser H(t) — soit évaluer K(t) pour une valeur imaginaire pure — est que E[eitX] est bien défini pour tout t réel alors que ce n'est pas toujours le cas de E[etX], comme dans les cas où la probabilité est élevée que X ait de grandes valeurs.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Eric Temple Bell, né le et mort le , est un mathématicien et écrivain, notamment de science-fiction. Né à Peterhead en Écosse, Bell a passé presque toute sa vie aux États-Unis et est mort à Watsonville en Californie. Ses œuvres de fiction sont parues sous le pseudonyme de John Taine. En 1884 (il a 15 mois), la famille va s'établir à San José (Californie) ; elle retourne à Bedford en Angleterre après la mort du père en 1896. Bell étudie à la Bedford Modern School, où Edward Mann Langley l'encourage à mettre en valeur ses talents en mathématiques.
En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Discrete mathematics is a discipline with applications to almost all areas of study. It provides a set of indispensable tools to computer science in particular. This course reviews (familiar) topics a
Statistics lies at the foundation of data science, providing a unifying theoretical and methodological backbone for the diverse tasks enountered in this emerging field. This course rigorously develops