Exactitude et précisionvignette|Schéma de l'exactitude et la précision appliquée à des lancers de fléchettes. Dans la mesure d'un ensemble, l'exactitude est la proximité des mesures à une valeur spécifique, tandis que la précision est la proximité des mesures les unes par rapport aux autres. L'exactitude a deux définitions : Plus communément, il s'agit d'une description des erreurs systématiques, une mesure du biais statistique ; une faible précision entraîne une différence entre un résultat et une valeur « vraie ».
Shrinkage (statistics)In statistics, shrinkage is the reduction in the effects of sampling variation. In regression analysis, a fitted relationship appears to perform less well on a new data set than on the data set used for fitting. In particular the value of the coefficient of determination 'shrinks'. This idea is complementary to overfitting and, separately, to the standard adjustment made in the coefficient of determination to compensate for the subjunctive effects of further sampling, like controlling for the potential of new explanatory terms improving the model by chance: that is, the adjustment formula itself provides "shrinkage.
Métrologiethumb|La barre de platine-iridium utilisée comme prototype du mètre de 1889 à 1960. La métrologie est la science de la mesure. Elle définit les principes et les méthodes permettant de garantir et maintenir la confiance envers les mesures résultant des processus de mesure. Il s'agit d'une science transversale qui s'applique dans tous les domaines où des mesures quantitatives sont effectuées.
Behavior modificationBehavior modification is an early approach that used respondent and operant conditioning to change behavior. Based on methodological behaviorism, overt behavior was modified with consequences, including positive and negative reinforcement contingencies to increase desirable behavior, or administering positive and negative punishment and/or extinction to reduce problematic behavior. It also used Flooding desensitization to combat phobias.
Degré CelsiusLe degré Celsius, de symbole °C, est l'unité de l’échelle de température Celsius, qui est une unité dérivée du Système international, introduite le . Son nom est une référence à l'astronome et physicien suédois Anders Celsius, inventeur en 1742 d'une des premières échelles centigrades de température. Cette unité de mesure est d'usage courant à travers le monde, à l'exception des États-Unis, du Belize et des îles Caïmans, qui utilisent encore l'échelle Fahrenheit.
Radiocarbon calibrationRadiocarbon dating measurements produce ages in "radiocarbon years", which must be converted to calendar ages by a process called calibration. Calibration is needed because the atmospheric 14C:12C ratio, which is a key element in calculating radiocarbon ages, has not been constant historically. Willard Libby, the inventor of radiocarbon dating, pointed out as early as 1955 the possibility that the ratio might have varied over time.
KelvinLe 'kelvin' (du nom de William Thomson, dit Lord Kelvin), de symbole K, est l'unité de base SI de température thermodynamique. Jusqu’au , le kelvin était défini comme la fraction 1/273,16 de la température thermodynamique du point triple de l'eau (), une variation de température d' étant équivalente à une variation d'. La nouvelle définition a pour objectif de respecter cette valeur, mais en l’ancrant sur une valeur fixée de la constante de Boltzmann.
Fonction d'erreurthumb|right|upright=1.4|Construction de la fonction d'erreur réelle. En mathématiques, la fonction d'erreur (aussi appelée fonction d'erreur de Gauss) est une fonction entière utilisée en analyse. Cette fonction se note erf et fait partie des fonctions spéciales. Elle est définie par : La fonction erf intervient régulièrement dans le domaine des probabilités et statistiques, ainsi que dans les problèmes de diffusion (de la chaleur ou de la matière).
Maximum a posterioriL'estimateur du maximum a posteriori (MAP), tout comme la méthode du maximum de vraisemblance, est une méthode pouvant être utilisée afin d'estimer un certain nombre de paramètres inconnus, comme les paramètres d'une densité de probabilité, reliés à un échantillon donné. Cette méthode est très liée au maximum de vraisemblance mais en diffère toutefois par la possibilité de prendre en compte un a priori non uniforme sur les paramètres à estimer.
Analyse de sensibilitéL’analyse de sensibilité est l'étude de la façon dont l'incertitude de la sortie d'un code ou d'un système (numérique ou autre) peut être attribuée à l'incertitude dans ses entrées. Il s'agit d'estimer des indices de sensibilité qui quantifient l'influence d'une entrée ou d'un groupe d'entrées sur la sortie. L'analyse de sensibilité peut être utile pour beaucoup d'applications: Tester la robustesse d'un modèle ou d'un système en présence d'incertitude.