vignette|Flux d'un ensemble statistique dans le potentiel x6 + 4*x3 - 5x**2 - 4x. Sur de longues périodes, il devient tourbillonnant et semble devenir une distribution lisse et stable. Cependant, cette stabilité est un artefact de la pixellisation (la structure réelle est trop fine pour être perçue). Cette animation est inspirée d'une discussion de Gibbs dans son wikisource de 1902 : Elementary Principles in Statistical Mechanics, Chapter XII, p. 143 : « Tendance d'un ensemble de systèmes isolés vers un état d'équilibre statistique ». Une version quantique de ceci peut être trouvée à File:Hamiltonian flow quantum.webm La théorie ergodique est une branche des mathématiques née de l'étude de l'hypothèse ergodique formulée par le physicien Ludwig Boltzmann en 1871 pour sa théorie cinétique des gaz. Il y a ergodicité si plusieurs analyses statistiques différentes et séparées sur un même sujet produisent un résultat suffisamment comparable. La théorie a connu de nombreux développements en relation étroite avec la théorie des systèmes dynamiques et la théorie du chaos. Système dynamique mesuré L'objet d'étude en théorie ergodique est un triplet où : est un espace mesurable (c’est-à-dire que est une tribu sur ) ; une mesure sur ; une application préservant la mesure , c’est-à-dire telle que : L'application engendre une dynamique discrète : partant d'un point , on obtient successivement , puis , et ainsi de suite. On peut étendre l'étude au cas d'une dynamique continue en remplaçant l'application précédente par un flot sur X, c’est-à-dire un groupe continu à un paramètre tel que : Ce cas est particulièrement important puisqu'il inclut le flot hamiltonien de la mécanique classique, ainsi que le flot géodésique. Le cas continu englobe le cas discret, car on peut toujours construire une application discrète à partir d'un flot continu, en posant par exemple pour l'unité de temps. Poursuivant l'analogie avec le vocabulaire de l'hydrodynamique, l'application discrète est alors parfois baptisée « cascade » par certains mathématiciens.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (12)
PHYS-316: Statistical physics II
Introduction à la théorie des transitions de phase
MATH-518: Ergodic theory
This is an introductory course in ergodic theory, providing a comprehensive overlook over the main aspects and applications of this field.
MATH-487: Topics in stochastic analysis
This course offers an introduction to topics in stochastic analysis, oriented about theory of multi-scale stochastic dynamics. We shall learn the fundamental ideas, relevant techniques, and in general
Afficher plus
Publications associées (63)
Concepts associés (28)
Hypothèse ergodique
L'hypothèse ergodique, ou hypothèse d'ergodicité, est une hypothèse fondamentale de la physique statistique. Elle fut formulée initialement par Ludwig Boltzmann en 1871 pour les besoins de sa théorie cinétique des gaz. Elle s'appliquait alors aux systèmes composés d'un très grand nombre de particules, et affirmait qu'à l'équilibre, la valeur moyenne d'une grandeur calculée de manière statistique est égale à la moyenne d'un très grand nombre de mesures prises dans le temps.
Système dynamique mesuré
Un système dynamique mesuré est un objet mathématique, représentant un espace de phases muni d'une loi d'évolution, particulièrement étudié en théorie ergodique. Un système dynamique mesuré est la donnée d'un espace probabilisé et d'une application mesurable f : X → X. On exige que f préserve la mesure, ce qui veut dire que : Cette propriété très riche permet d'obtenir de puissants théorèmes. Par ailleurs, un théorème affirme qu'il existe, pour toute transformation continue X → X d'un espace topologique compact X, une mesure de probabilité, borélienne, préservant cette transformation.
Chaîne de Markov
vignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Afficher plus