En physique statistique, le groupe de renormalisation est un ensemble de transformations qui permettent de transformer un hamiltonien en un autre hamiltonien par élimination de degrés de liberté tout en laissant la fonction de partition invariante. Il s'agit plus exactement d'un semi-groupe, les transformations n'étant pas inversibles.
Le groupe de renormalisation permet de calculer les exposants critiques d'une transition de phase. Il permet aussi de prédire la transition Berezinsky-Kosterlitz-Thouless. En physique de la matière condensée, il permet de traiter l'effet Kondo et le liquide de Luttinger. Il a également des applications dans la théorie des systèmes désordonnés.
En mécanique statistique, le groupe de renormalisation a été introduit par Kenneth G. Wilson au début des années 1970. Auparavant, en théorie quantique des champs, il avait été étudié comme une invariance de la théorie des champs renormalisée sous l'effet d'une variation des paramètres nus pour un point de soustraction fixé par E. Stueckelberg et A. Petermann (1953), ainsi que par Murray Gell-Mann et F. Low (1954).
Le groupe de renormalisation, dans le cadre de la théorie quantique des champs, est discuté dans le livre de Bogoliubov et Shirkov. Cependant, les techniques de renormalisation issues de la théorie des champs n'ont été appliquées aux phénomènes critiques qu'après les travaux de Wilson.
Pour l'effet Kondo, le travail de P. W. Anderson, D. R. Hamman et A. Yuval (1970) utilise des techniques analogues au groupe de renormalisation, bien que ce travail soit antérieur à celui de Wilson sur les phénomènes critiques. M. Fowler et A. Zawadowski ont ensuite développé une approche de renormalisation multiplicative issue de la théorie des champs (1974). La solution de l'effet Kondo par un groupe de renormalisation numérique est due à Wilson (1975).
Dans le cas du liquide de Luttinger, la solution par le groupe de renormalisation est encore due à J. Solyom et A. Zawadowski (1974).
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
This course introduces statistical field theory, and uses concepts related to phase transitions to discuss a variety of complex systems (random walks and polymers, disordered systems, combinatorial o
This course is an introduction to the non-perturbative bootstrap approach to Conformal Field Theory and to the Gauge/Gravity duality, emphasizing the fruitful interplay between these two ideas.
This course presents an introduction to statistical mechanics geared towards materials scientists. The concepts of macroscopic thermodynamics will be related to a microscopic picture and a statistical
Explore le grainage grossier en physique statistique, en se concentrant sur la renormalisation de l'espace réel et le modèle Ising.
Couvre la renormalisation en théorie algébrique des champs quantiques, en se concentrant sur les diagrammes à deux boucles et le groupe de renormalisation.
Explore l'échelle et la renormalisation en mécanique statistique, en mettant l'accent sur les points critiques et les propriétés invariantes.
thumb|De gauche à droite : Kibble, Guralnik, Hagen, Englert et Brout, en 2010. Le boson de Higgs ou boson BEH, est une particule élémentaire dont l'existence, postulée indépendamment en juin 1964 par François Englert et Robert Brout, par Peter Higgs, en août, et par Gerald Guralnik, Carl Richard Hagen et Thomas Kibble, permet d'expliquer la brisure de l'interaction unifiée électrofaible (EWSB, pour l'anglais ) en deux interactions par l'intermédiaire du mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble et d'expliquer ainsi pourquoi certaines particules ont une masse et d'autres n'en ont pas.
En théorie quantique des champs (ou QFT), en mécanique statistique des champs, dans la théorie des structures géométriques autosimilaires, une renormalisation est une manière, variable dans sa nature, de prendre la limite du continu quand certaines constructions statistiques et quantiques deviennent indéfinies. La renormalisation détermine la façon de relier les paramètres de la théorie quand ces paramètres à grande échelle diffèrent de leur valeur à petite échelle.
En physique, une constante de couplage est un nombre caractéristique de l'intensité d'une interaction. En physique classique les constantes de couplage interviennent en mécanique et en électromagnétisme : la constante de couplage de deux circuits linéaires, comme l'inductance mutuelle M d'un transformateur. Voir aussi l'article Couplage de deux oscillateurs électriques ; la constante de couplage de deux systèmes mécaniques, souvent notée k, caractérise leur dépendance l'un à l'autre.
This Ph.D. thesis unveils the unique topological phenomena occurring in such networks, focusing on the intricate interplay between their Floquet topology, the presence of disorder, and their unitary scattering at microscopic and macroscopic scales. Using t ...
We study applications of spectral positivity and the averaged null energy condition (ANEC) to renormalization group (RG) flows in two-dimensional quantum field theory. We find a succinct new proof of the Zamolodchikov c-theorem, and derive further independ ...
We microscopically analyze the nearest-neighbor Heisenberg model on the maple leaf lattice through neural quantum state (NQS) and infinite density matrix renormalization group (iDMRG) methods. Embarking to parameter regimes beyond the exact dimer singlet g ...