Pic de HubbertLe pic de Hubbert ou courbe de Hubbert, est une courbe en cloche proposée dans les années 1940 par le géophysicien Marion King Hubbert, qui modélise la production d'une matière première donnée, en particulier celle du pétrole. Cette courbe devint célèbre quand Hubbert en fit la présentation officielle à l'American Petroleum Institute en 1956, avec les deux points importants suivants : cette courbe en cloche passe par un maximum, indiquant que la production décline forcément par la suite ; elle est relativement symétrique par rapport à ce maximum.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Taylor's lawTaylor's power law is an empirical law in ecology that relates the variance of the number of individuals of a species per unit area of habitat to the corresponding mean by a power law relationship. It is named after the ecologist who first proposed it in 1961, Lionel Roy Taylor (1924–2007). Taylor's original name for this relationship was the law of the mean. The name Taylor's law was coined by Southwood in 1966. This law was originally defined for ecological systems, specifically to assess the spatial clustering of organisms.
Theories of urban planningPlanning theory is the body of scientific concepts, definitions, behavioral relationships, and assumptions that define the body of knowledge of urban planning. There are nine procedural theories of planning that remain the principal theories of planning procedure today: the Rational-Comprehensive approach, the Incremental approach, the Transformative Incremental (TI) approach, the Transactive approach, the Communicative approach, the Advocacy approach, the Equity approach, the Radical approach, and the Humanist or Phenomenological approach.
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Loi de LévyEn théorie des probabilités et en statistique, la loi de Lévy, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité continue. En physique, plus précisément en spectroscopie, elle porte le nom de profil de van der Waals et décrit le profil de certaines raies spectrales. Cette loi dépend de deux paramètres : un paramètre de position qui décale le support , et un paramètre d'échelle . Si X suit une loi de Lévy, on notera : .
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Free entropyA thermodynamic free entropy is an entropic thermodynamic potential analogous to the free energy. Also known as a Massieu, Planck, or Massieu–Planck potentials (or functions), or (rarely) free information. In statistical mechanics, free entropies frequently appear as the logarithm of a partition function. The Onsager reciprocal relations in particular, are developed in terms of entropic potentials. In mathematics, free entropy means something quite different: it is a generalization of entropy defined in the subject of free probability.
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Pic gazierMoins médiatique que le pic pétrolier, le pic gazier ou Peak Gas est le moment où la production mondiale de gaz naturel culminera, et où les réserves mondiales seront donc à moitié consommées. La Russie, l'Iran et le Qatar détiennent tous trois près des 2/3 des réserves mondiales de gaz naturel, avec respectivement 27 %, 15 % et 14 % du total. Viennent ensuite "16 nains", avec des réserves comprises entre 1 et 5 % du total (par ordre décroissant des réserves) : Arabie saoudite, Émirats arabes unis, États-Unis, Nigeria, Algérie, Venezuela, Irak, Kazakhstan, Turkménistan, Indonésie, Malaisie, Australie, Norvège, Chine, Ouzbékistan et Égypte.