VitesseEn physique, la vitesse est une grandeur qui mesure le rapport d'une évolution au temps. Exemples : vitesse de sédimentation,vitesse d'une réaction chimique, etc. De manière élémentaire, la vitesse s'obtient par la division d'une mesure d'une variation (de longueur, poids, volume, etc.) durant un certain temps par la mesure de ce temps écoulé. En particulier, en cinématique, la vitesse est une grandeur qui mesure pour un mouvement, le rapport de la distance parcourue au temps écoulé.
Distance de TchebychevLa distance de Tchebychev, distance de Chebyshev ou ∞-distance, est la distance entre deux points donnée par la différence maximale entre leurs coordonnées sur une dimension. La distance de Tchebychev tient son nom du mathématicien russe Pafnouti Tchebychev. Entre deux points A et B, de coordonnées respectives et , la distance de Tchebychev est définie par : Autrement dit : c'est la distance associée à la norme « infini ». La distance de Tchebychev est équivalente à la d'ordre infini.
Distance d'un point à une droiteEn géométrie euclidienne, la distance d'un point à une droite est la plus courte distance séparant ce point et un point courant de la droite. Le théorème de Pythagore permet d'affirmer que la distance du point A à la droite (d ) correspond à la distance séparant A de son projeté orthogonal Ah sur la droite (d ).
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Divergence (statistiques)En statistiques, une divergence est une fonction ou une fonctionnelle qui mesure la dissimilarité d'une loi de probabilité par rapport à une autre. Selon le contexte, elles peuvent être définies pour des lois, des mesures positives (non-normalisées), des vecteurs (par exemple sur l'espace des paramètres si l'on considère un modèle paramétrique), ou encore des matrices. Les divergences sont analogues à des distances au carré et permettent de généraliser la notion de distance aux variétés statistiques, mais il s'agit d'une notion plus faible dans la mesure où elles ne sont en général pas symétriques et ne vérifient pas l'inégalité triangulaire.
ProportionnalitéEn mathématiques, on dit que deux suites de nombres sont proportionnelles quand, en multipliant (ou en divisant) par une même constante non nulle, les termes de l'une on obtient les termes de l'autre. Le facteur constant entre l'une et l'autre de ces suites est appelé coefficient de proportionnalité. Ces suites de nombres étant par exemple des grandeurs mesurées. Exemple : dans un magasin, le prix des pommes est de le kilogramme. Il y a proportionnalité entre la somme S à payer et le poids P de pommes achetées, avec un coefficient de proportionnalité égal à 2.
Similarity measureIn statistics and related fields, a similarity measure or similarity function or similarity metric is a real-valued function that quantifies the similarity between two objects. Although no single definition of a similarity exists, usually such measures are in some sense the inverse of distance metrics: they take on large values for similar objects and either zero or a negative value for very dissimilar objects. Though, in more broad terms, a similarity function may also satisfy metric axioms.
Lee distanceIn coding theory, the Lee distance is a distance between two strings and of equal length n over the q-ary alphabet {0, 1, ..., q − 1} of size q ≥ 2. It is a metric defined as If q = 2 or q = 3 the Lee distance coincides with the Hamming distance, because both distances are 0 for two single equal symbols and 1 for two single non-equal symbols. For q > 3 this is not the case anymore; the Lee distance between single letters can become bigger than 1. However, there exists a Gray isometry (weight-preserving bijection) between with the Lee weight and with the Hamming weight.
Absolute differenceThe absolute difference of two real numbers and is given by , the absolute value of their difference. It describes the distance on the real line between the points corresponding to and . It is a special case of the Lp distance for all and is the standard metric used for both the set of rational numbers and their completion, the set of real numbers . As with any metric, the metric properties hold: since absolute value is always non-negative. if and only if . (symmetry or commutativity).
Distance du grand cercleLa distance du grand cercle, également appelée distance orthodromique, est la plus courte distance entre deux points sur une sphère. La surface de la Terre étant approximativement sphérique, la distance du grand cercle est généralement employée pour mesurer la distance entre deux points à sa surface, à partir de leur longitude et leur latitude. R est le rayon de la sphère (le rayon de la Terre vaut environ ). δ est la latitude (en radians). λ est la longitude (en radians). Sur une sphère de rayon R, la dist