La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle). L'inverse d'une variable aléatoire, de loi de Cauchy, suit une loi de Cauchy. Le quotient de deux variables aléatoires réelles indépendantes suivant des lois normales standards suit une loi de Cauchy. La loi de Cauchy (avec notamment la loi normale et la loi de Lévy) est un cas particulier de loi stable. La fonction densité de probabilités est une fonction lorentzienne : où x est un paramètre de localisation situant le pic de la fonction, et a est un paramètre d'échelle qui définit la moitié de la largeur à mi-hauteur. La fonction de la loi de Cauchy standard est : La fonction de répartition est : On en déduit la fonction quantile : L'entropie de la loi de Cauchy est donnée par : La loi de Cauchy est la loi de probabilités de maximum d'entropie pour une variable aléatoire X, avec La fonction caractéristique d'une loi de Cauchy est donnée par : La loi de Cauchy n'admet ni espérance ni écart type. Et il en va de même pour tout moment d'ordre supérieur. En effet, n'est pas intégrable au sens de Lebesgue car (à l'infini) d'où la divergence de l'intégrale : l'espérance n'existe pas. A fortiori, la loi de Cauchy n'admet pas d'écart-type, car diverge. Pour la même raison, les moments d'ordre supérieur n'existent pas non plus. Ainsi on ne peut pas lui appliquer la loi forte des grands nombres. Cependant, , qui en est la médiane, est souvent considéré comme la « moyenne » de la loi de Cauchy, car : thumb|300px|Moyenne empirique d'une série de valeurs suivant la loi de Cauchy.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (34)
FIN-417: Quantitative risk management
This course is an introduction to quantitative risk management that covers standard statistical methods, multivariate risk factor models, non-linear dependence structures (copula models), as well as p
MATH-232: Probability and statistics (for IC)
A basic course in probability and statistics
COM-406: Foundations of Data Science
We discuss a set of topics that are important for the understanding of modern data science but that are typically not taught in an introductory ML course. In particular we discuss fundamental ideas an
Afficher plus
Séances de cours associées (427)
Analyse complexe: Théorème du cauchy
Explore le Théorème de Cauchy et ses applications en analyse complexe.
Génération de nombres aléatoires quantiques
Explore la génération de nombres quantiques aléatoires, en discutant des défis et des implémentations de générer une bonne randomité à l'aide de dispositifs quantiques.
Durabilité du bois et constructions alpines
Explore les propriétés et les utilisations des arbres de Larix dans la durabilité du bois et les constructions alpines.
Afficher plus
Publications associées (522)

A story of two transitions: From adhesive to abrasive wear and from ductile to brittle regime

Jean-François Molinari, Sacha Zenon Wattel

Atomistic simulations performed with a family of model potential with tunable hardness have proven to be a great tool for advancing the understanding of wear processes at the asperity level. They have been instrumental in finding a critical length scale, w ...
2024

Generalization of Scaled Deep ResNets in the Mean-Field Regime

Volkan Cevher, Grigorios Chrysos, Fanghui Liu

Despite the widespread empirical success of ResNet, the generalization properties of deep ResNet are rarely explored beyond the lazy training regime. In this work, we investigate scaled ResNet in the limit of infinitely deep and wide neural networks, of wh ...
2024

Full-F turbulent simulation in a linear plasma device using a gyro-moment approach

Paolo Ricci, Baptiste Jimmy Frei

Simulations of plasma turbulence in a linear plasma device configuration are presented. These simulations are based on a simplified version of the gyrokinetic (GK) model proposed by Frei et al. [J. Plasma Phys. 86, 905860205 (2020)], where the full-F distr ...
Melville2024
Afficher plus
Concepts associés (33)
Loi normale
En théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Fonction caractéristique (probabilités)
En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la fonction caractéristique d'une variable aléatoire réelle est une quantité qui détermine de façon unique sa loi de probabilité. Si cette variable aléatoire a une densité, alors la fonction caractéristique est la transformée de Fourier inverse de la densité. Les valeurs en zéro des dérivées successives de la fonction caractéristique permettent de calculer les moments de la variable aléatoire.
Variance (mathématiques)
vignette|Exemple d'échantillons pour deux populations ayant la même moyenne mais des variances différentes. La population en rouge a une moyenne de 100 et une variance de 100 (écart-type = SD = standard deviation = 10). La population en bleu a une moyenne de 100 et une variance de (écart-type = SD = 50). En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire.
Afficher plus
MOOCs associés (12)
Advanced statistical physics
We explore statistical physics in both classical and open quantum systems. Additionally, we will cover probabilistic data analysis that is extremely useful in many applications.
Advanced statistical physics
We explore statistical physics in both classical and open quantum systems. Additionally, we will cover probabilistic data analysis that is extremely useful in many applications.
Plasma Physics: Introduction
Learn the basics of plasma, one of the fundamental states of matter, and the different types of models used to describe it, including fluid and kinetic.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.