Flow velocityIn continuum mechanics the flow velocity in fluid dynamics, also macroscopic velocity in statistical mechanics, or drift velocity in electromagnetism, is a vector field used to mathematically describe the motion of a continuum. The length of the flow velocity vector is the flow speed and is a scalar. It is also called velocity field; when evaluated along a line, it is called a velocity profile (as in, e.g., law of the wall).
Divergence (analyse vectorielle)vignette|Les lignes bleues représentant les gradients de couleur, du plus clair au plus foncé. L'opérateur divergence permet de calculer, localement, la variation de ce gradient de couleur vignette|Illustration de la divergence d'un champ vectoriel, ici champ de vitesse converge à gauche et diverge à droite. En géométrie, la divergence d'un champ de vecteurs est un opérateur différentiel mesurant le défaut de conservation du volume sous l'action du flot de ce champ.
Méthode des éléments finisEn analyse numérique, la méthode des éléments finis (MEF, ou FEM pour finite element method en anglais) est utilisée pour résoudre numériquement des équations aux dérivées partielles. Celles-ci peuvent par exemple représenter analytiquement le comportement dynamique de certains systèmes physiques (mécaniques, thermodynamiques, acoustiques).
Divergence (statistiques)En statistiques, une divergence est une fonction ou une fonctionnelle qui mesure la dissimilarité d'une loi de probabilité par rapport à une autre. Selon le contexte, elles peuvent être définies pour des lois, des mesures positives (non-normalisées), des vecteurs (par exemple sur l'espace des paramètres si l'on considère un modèle paramétrique), ou encore des matrices. Les divergences sont analogues à des distances au carré et permettent de généraliser la notion de distance aux variétés statistiques, mais il s'agit d'une notion plus faible dans la mesure où elles ne sont en général pas symétriques et ne vérifient pas l'inégalité triangulaire.
F-divergenceIn probability theory, an -divergence is a function that measures the difference between two probability distributions and . Many common divergences, such as KL-divergence, Hellinger distance, and total variation distance, are special cases of -divergence. These divergences were introduced by Alfréd Rényi in the same paper where he introduced the well-known Rényi entropy. He proved that these divergences decrease in Markov processes.
Vecteur vitesseLe vecteur vitesse, nommé parfois vélocité, est une notion de physique qui à la différence de la vitesse comprend un déplacement vers un point. Par exemple, une voiture a une vitesse de 60 km/h mais a une vélocité de 60 km/h vers le nord, le nord étant un point de référence ou de destination pour la voiture. Le terme vélocité est tiré des mots latins velocitas et velox signifiant respectivement rapidité, vitesse, et rapide, prompt, véloce, mots ayant eux-mêmes une origine obscure, mais supposé étant lié à la racine proto-indo-européenne wegh- signifiant "aller, bouger," et "transport dans un véhicule".
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Closed and exact differential formsIn mathematics, especially vector calculus and differential topology, a closed form is a differential form α whose exterior derivative is zero (dα = 0), and an exact form is a differential form, α, that is the exterior derivative of another differential form β. Thus, an exact form is in the of d, and a closed form is in the kernel of d. For an exact form α, α = dβ for some differential form β of degree one less than that of α. The form β is called a "potential form" or "primitive" for α.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Forme différentielleEn géométrie différentielle, une forme différentielle est la donnée d'un champ d'applications multilinéaires alternées sur les espaces tangents d'une variété différentielle possédant une certaine régularité. Le degré des formes différentielles désigne le degré des applications multilinéaires. La différentielle d'une fonction numérique peut être regardée comme un champ de formes linéaires : c'est le premier exemple de formes différentielles.