Troisième principe de la thermodynamiquevignette|Walther Hermann Nernst. Le troisième principe de la thermodynamique, appelé aussi principe de Nernst (1906), énonce que : La valeur de l'entropie de tout corps pur dans l'état de cristal parfait est nulle à la température de . Cela permet d'avoir une valeur déterminée de l'entropie (et non pas « à une constante additive près »). Ce principe est irréductiblement lié à l'indiscernabilité quantique des particules identiques. Il a été énoncé par Walther Nernst en 1906, puis Max Planck en 1912.
Théorème de Bernoullivignette|Observations à l'aide d'un tube de Venturi illustrant le théorème de Bernoulli En mécanique des fluides, le est un principe de conservation de l'énergie sous certaines hypothèses de l'écoulement, établi en par Daniel Bernoulli. C'est un résultat historique dans le développement de la dynamique des fluides. S’il est initialement utilisé pour des fluides en circulation dans une conduite, il trouve un important champ d'application en aérodynamique.
Méthode de GalerkineEn mathématiques, dans le domaine de l'analyse numérique, les méthodes de Galerkine sont une classe de méthodes permettant de transformer un problème continu (par exemple une équation différentielle) en un problème discret. Cette approche est attribuée aux ingénieurs russes Ivan Boubnov (1911) et Boris Galerkine (1913). Cette méthode est couramment utilisée dans la méthode des éléments finis. On part de la formulation faible du problème. La solution appartient à un espace fonctionnel satisfaisant des propriétés de régularité bien définies.
Principe d'entropie maximaleLe principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. De toutes ces distributions, c'est en effet celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Méthode des différences finiesEn analyse numérique, la méthode des différences finies est une technique courante de recherche de solutions approchées d'équations aux dérivées partielles qui consiste à résoudre un système de relations (schéma numérique) liant les valeurs des fonctions inconnues en certains points suffisamment proches les uns des autres. Cette méthode apparaît comme étant la plus simple à mettre en œuvre car elle procède en deux étapes : d'une part la discrétisation par différences finies des opérateurs de dérivation/différentiation, d'autre part la convergence du schéma numérique ainsi obtenu lorsque la distance entre les points diminue.
Intervalle de confiancevignette|Chaque ligne montre 20 échantillons tirés selon la loi normale de moyenne μ. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance encadre une valeur réelle que l’on cherche à estimer à l’aide de mesures prises par un procédé aléatoire.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Vitesse du sonvignette|Un F/A-18 Hornet se déplaçant à une vitesse proche de celle du son lors d'un passage dans une zone de condensation d'air humide. La vitesse du son, ou célérité du son, est la vitesse de propagation des ondes sonores dans tous les milieux gazeux, liquides ou solides. Elle peut donc être déterminée pour des matériaux autres que l'air, dans lesquels le son ne peut être perçu par l'oreille humaine. Dans un fluide quelconque, quelles que soient les conditions de pression et température, la vitesse du son dépend de la compressibilité isentropique et de la masse volumique du milieu de propagation de l'onde.
Tenseur des contraintesLe tenseur des contraintes est un tenseur d'ordre 2 utilisé en mécanique des milieux continus pour caractériser l'état de contrainte, c'est-à-dire les efforts intérieurs mis en jeu entre les portions déformées d'un milieu. Le terme a été introduit par Cauchy vers 1822. Comme les efforts intérieurs sont définis pour chaque surface coupant le milieu (on parle d'ailleurs également d'efforts surfaciques), le tenseur est défini localement, en chaque point du solide. L'état de contrainte du solide est donc représenté par un champ tensoriel.