Jeux d'entrainement, de validation et de testEn apprentissage automatique, une tâche courante est l'étude et la construction d'algorithmes qui peuvent apprendre et faire des prédictions sur les données. De tels algorithmes fonctionnent en faisant des prédictions ou des décisions basées sur les données, en construisant un modèle mathématique à partir des données d'entrée. Ces données d'entrée utilisées pour construire le modèle sont généralement divisées en plusieurs jeux de données .
PluieLa pluie est un phénomène naturel par lequel des gouttes d'eau tombent des nuages vers le sol. Il s'agit d'une des formes les plus communes de précipitations sur Terre. Son rôle est prépondérant dans le cycle de l'eau. Elle prend nombre de formes allant de la pluie légère au déluge, de l'averse à la pluie continue, de fines gouttelettes à de très grosses. Elle est parfois mêlée de neige, de grêlons ou verglaçante. Elle s'évapore parfois avant de toucher terre pour donner la virga.
Pluviomètrethumb|Deux parties d'un pluviomètre à lecture directe. À la gauche se trouve une éprouvette graduée surmontée d'un entonnoir, lesquels sont introduits dans le cylindre à la droite. À la droite du cylindre se trouve un tuyau métallique qui sert à évacuer le surplus de précipitations accumulées (ce tuyau est souvent raccordé à une conduite qui plonge dans la terre). Le pluviomètre est un instrument météorologique destiné à mesurer la quantité de précipitations (surtout la pluie) tombée pendant un intervalle de temps donné en un endroit.
Estimateur (statistique)En statistique, un estimateur est une fonction permettant d'estimer un moment d'une loi de probabilité (comme son espérance ou sa variance). Il peut par exemple servir à estimer certaines caractéristiques d'une population totale à partir de données obtenues sur un échantillon comme lors d'un sondage. La définition et l'utilisation de tels estimateurs constitue la statistique inférentielle. La qualité des estimateurs s'exprime par leur convergence, leur biais, leur efficacité et leur robustesse.
Statistical model validationIn statistics, model validation is the task of evaluating whether a chosen statistical model is appropriate or not. Oftentimes in statistical inference, inferences from models that appear to fit their data may be flukes, resulting in a misunderstanding by researchers of the actual relevance of their model. To combat this, model validation is used to test whether a statistical model can hold up to permutations in the data.
Degré de liberté (statistiques)En statistiques le degré de liberté (ddl) désigne le nombre de variables aléatoires qui ne peuvent être déterminées ou fixées par une équation (notamment les équations des tests statistiques). Une autre définition est : . Le degré de liberté est égal au nombre d'observations moins le nombre de relations entre ces observations : on pourrait remplacer l'expression « nombre de relations » par « nombre de paramètres à estimer ». Supposons un ensemble de n variables aléatoires, toutes de même loi et indépendantes X,.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Boundary problem (spatial analysis)A boundary problem in analysis is a phenomenon in which geographical patterns are differentiated by the shape and arrangement of boundaries that are drawn for administrative or measurement purposes. The boundary problem occurs because of the loss of neighbors in analyses that depend on the values of the neighbors. While geographic phenomena are measured and analyzed within a specific unit, identical spatial data can appear either dispersed or clustered depending on the boundary placed around the data.
Regression validationIn statistics, regression validation is the process of deciding whether the numerical results quantifying hypothesized relationships between variables, obtained from regression analysis, are acceptable as descriptions of the data. The validation process can involve analyzing the goodness of fit of the regression, analyzing whether the regression residuals are random, and checking whether the model's predictive performance deteriorates substantially when applied to data that were not used in model estimation.
Edge-preserving smoothingEdge-preserving smoothing or edge-preserving filtering is an technique that smooths away noise or textures while retaining sharp edges. Examples are the median, bilateral, guided, anisotropic diffusion, and Kuwahara filters. In many applications, e.g., medical or satellite imaging, the edges are key features and thus must be preserved sharp and undistorted in smoothing/denoising. Edge-preserving filters are designed to automatically limit the smoothing at “edges” in images measured, e.g., by high gradient magnitudes.