Market distortionIn neoclassical economics, a market distortion is any event in which a market reaches a market clearing price for an item that is substantially different from the price that a market would achieve while operating under conditions of perfect competition and state enforcement of legal contracts and the ownership of private property. A distortion is "any departure from the ideal of perfect competition that therefore interferes with economic agents maximizing social welfare when they maximize their own".
Courbe de Lafferthumb|Courbes de Laffer possibles, sur le modèle de la fonction bêta. Cela étant, rien n'impose à cette courbe d'être continue, ni dérivable. Elle pourrait même être une courbe de type hystérésis. La seule certitude est qu'elle vaut 0 aux bornes de l'intervalle et qu'elle possède au moins un maximum local. La courbe de Laffer est une hypothèse faite dans le cadre de modélisations économiques et développée par des économistes de l'offre, en particulier Arthur Laffer.
Taux de féconditéLe taux de fécondité peut se définir comme le rapport des naissances vivantes durant une période, généralement l'année, à un effectif convenable de femmes (par exemple les 15-50 ans, ou pour chaque âge). L'indice synthétique de fécondité est la somme des taux de fécondité générale par âge durant une période. Il est en pratique synonyme d'indicateur conjoncturel de fécondité ou nombre moyen d'enfants par femme. Ce terme se distingue du taux de natalité, qui correspond au nombre annuel de naissances divisé par la population totale de cette année.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Phase (thermodynamique)thumb|right|Un système composé d'eau et d'huile, à l'équilibre, est composé de deux phases distinctes (biphasique). En thermodynamique, on utilise la notion de phase pour distinguer les différents états possibles d'un système. Selon le contexte et les auteurs, le mot est utilisé pour désigner plusieurs choses, parfois de natures différentes, mais étroitement liées. Si un système thermodynamique est entièrement homogène, physiquement et chimiquement, on dit qu'il constitue une seule phase.
Tube soundTube sound (or valve sound) is the characteristic sound associated with a vacuum tube amplifier (valve amplifier in British English), a vacuum tube-based audio amplifier. At first, the concept of tube sound did not exist, because practically all electronic amplification of audio signals was done with vacuum tubes and other comparable methods were not known or used. After introduction of solid state amplifiers, tube sound appeared as the logical complement of transistor sound, which had some negative connotations due to crossover distortion in early transistor amplifiers.
Diagramme de phaseUn diagramme de phase, ou diagramme de phases, est une représentation graphique utilisée en thermodynamique, généralement à deux ou trois dimensions, représentant les domaines de l'état physique (ou phase) d'un système (corps pur ou mélange de corps purs), en fonction de variables, choisies pour faciliter la compréhension des phénomènes étudiés. Les diagrammes les plus simples concernent un corps pur avec pour variables la température et la pression ; les autres variables souvent utilisées sont l'enthalpie, l'entropie, le volume massique, ainsi que la concentration en masse ou en volume d'un des corps purs constituant un mélange.
Variation naturelleEn démographie, la variation naturelle ou le solde naturel (ou l'accroissement naturel) est la différence entre le nombre de naissances vivantes et le nombre de décès sur un territoire au cours d'une période. Elle peut être soit positive, soit négative, soit nulle. L'accroissement naturel (ou excédent naturel) de la population est le cas où la variation naturelle est positive, ce qui implique que le nombre de naissances vivantes dépasse, sur la période considérée, le nombre de décès.
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.