Lasso (statistiques)En statistiques, le lasso est une méthode de contraction des coefficients de la régression développée par Robert Tibshirani dans un article publié en 1996 intitulé Regression shrinkage and selection via the lasso. Le nom est un acronyme anglais : Least Absolute Shrinkage and Selection Operator. Bien que cette méthode fut utilisée à l'origine pour des modèles utilisant l'estimateur usuel des moindres carrés, la pénalisation lasso s'étend facilement à de nombreux modèles statistiques tels que les modèles linéaires généralisés, les modèles à risque proportionnel, et les M-estimateurs.
Convergence uniformeLa convergence uniforme d'une suite de fonctions est une forme de convergence plus exigeante que la convergence simple. La convergence devient uniforme quand toutes les suites avancent vers leur limite respective avec une sorte de « mouvement d'ensemble ». Dans le cas de fonctions numériques d'une variable, la notion prend une forme d'« évidence » géométrique : le graphe de la fonction f se « rapproche » de celui de la limite. Soient X un ensemble, (Y, d) un espace métrique, et A un sous-ensemble de X.
Rayon de convergenceLe rayon de convergence d'une série entière est le nombre réel positif ou +∞ égal à la borne supérieure de l'ensemble des modules des nombres complexes où la série converge (au sens classique de la convergence simple): Si R est le rayon de convergence d'une série entière, alors la série est absolument convergente sur le disque ouvert D(0, R) de centre 0 et de rayon R. Ce disque est appelé disque de convergence. Cette convergence absolue entraine ce qui est parfois qualifié de convergence inconditionnelle : la valeur de la somme en tout point de ce disque ne dépend pas de l'ordre des termes.
Approximation affineEn mathématiques, une approximation affine est une approximation d'une fonction au voisinage d'un point à l'aide d'une fonction affine. Une approximation affine sert principalement à simplifier un problème dont on peut obtenir une solution approchée. Deux façons classiques d'obtenir une approximation affine de fonction passent par l'interpolation ou le développement limité à l’ordre 1.
Erreur de mesurevignette|upright|Mesurage avec une colonne de mesure. Une erreur de mesure, dans le langage courant, est Exemples usuels et fictifs d'après cette définition : L'indication d'une balance de ménage pour une masse de certifiée est de . L'erreur de mesure est de – ; La distance entre deux murs, donnée par un télémètre laser est de , valeur considérée ici comme exacte. La valeur mesurée, au même endroit, avec un mètre à ruban est de . L'erreur de mesure, avec le mètre à ruban, est de ou ; La différence sur 24 heures de temps entre une pendule radio pilotée et une montre bracelet est de .
Propagation des incertitudesUne mesure est toujours entachée d'erreur, dont on estime l'intensité par l'intermédiaire de l'incertitude. Lorsqu'une ou plusieurs mesures sont utilisées pour obtenir la valeur d'une ou de plusieurs autres grandeurs (par l'intermédiaire d'une formule explicite ou d'un algorithme), il faut savoir, non seulement calculer la valeur estimée de cette ou ces grandeurs, mais encore déterminer l'incertitude ou les incertitudes induites sur le ou les résultats du calcul.
Marge d'erreurEn statistiques, la marge d'erreur est une estimation de l'étendue que les résultats d'un sondage peuvent avoir si l'on recommence l'enquête. Plus la marge d'erreur est importante, moins les résultats sont fiables et plus la probabilité qu'ils soient écartés de la réalité est importante. La marge d'erreur peut être calculée directement à partir de la taille de l'échantillon (par exemple, le nombre de personnes sondées) et est habituellement reportée par l'un des trois différents niveaux de l'intervalle de confiance.