En cosmologie, la matière noire froide (ou CDM, de l'anglais Cold dark matter) est une forme de matière hypothétique (une sorte de matière noire) dont les particules se déplacent lentement par rapport à la vitesse de la lumière (d'où le qualificatif de froide) qui interagit faiblement avec la matière ordinaire et le rayonnement électromagnétique (noire). On pense qu'environ 84,54 % de la matière qui compose l'univers est de la matière noire, la matière baryonique (qui compose les étoiles, les planètes et les êtres vivants) n'étant qu'une fraction du reste.
vignette|FlightGear 3.0 Boeing 777-200 cockpit.png FlightGear 3.0, screenshot from cockpit view using low specs. Un jeu de simulation est un jeu (de société ou vidéo) qui reproduit une activité ou une action dans divers environnements. Les plus populaires sont les jeux économiques ou de gestion et les jeux de rôle. Lorsque la simulation porte sur une guerre ou une bataille réelle ou fictive, on parle plutôt de jeu de stratégie ou jeu de guerre dont le jeu de figurines est une forme de représentation.
vignette|Halo de matière noire créé par une simulation cosmologique à N corps. Un halo de matière noire est un composant hypothétique d'une galaxie qui enveloppe le disque galactique et s'étend bien au-delà des limites visibles de la galaxie. La masse du halo est la portion dominante de la masse totale de la galaxie. Étant donné qu'ils sont constitués de matière noire, les halos ne peuvent pas être observés directement, mais leur existence est déduite de leurs effets sur le mouvement des étoiles et du gaz dans les galaxies.
In statistics, pooled variance (also known as combined variance, composite variance, or overall variance, and written ) is a method for estimating variance of several different populations when the mean of each population may be different, but one may assume that the variance of each population is the same. The numerical estimate resulting from the use of this method is also called the pooled variance. Under the assumption of equal population variances, the pooled sample variance provides a higher precision estimate of variance than the individual sample variances.
Lerreur type d'une statistique (souvent une estimation d'un paramètre) est l'écart type de sa distribution d'échantillonnage ou l'estimation de son écart type. Si le paramètre ou la statistique est la moyenne, on parle d'erreur type de la moyenne. La distribution d'échantillonnage est générée par tirage répété et enregistrements des moyennes obtenues. Cela forme une distribution de moyennes différentes, et cette distribution a sa propre moyenne et variance.
En statistique, la détermination du nombre de sujets nécessaires est l'acte de choisir le nombre d'observations ou de répétitions à inclure dans un échantillon statistique. Ce choix est très important pour pouvoir faire de l'inférence sur une population. En pratique, la taille de l'échantillon utilisé dans une étude est déterminée en fonction du coût de la collecte des données et de la nécessité d'avoir une puissance statistique suffisante.
La statistique est la discipline qui étudie des phénomènes à travers la collecte de données, leur traitement, leur analyse, l'interprétation des résultats et leur présentation afin de rendre ces données compréhensibles par tous. C'est à la fois une branche des mathématiques appliquées, une méthode et un ensemble de techniques. ce qui permet de différencier ses applications mathématiques avec une statistique (avec une minuscule). Le pluriel est également souvent utilisé pour la désigner : « les statistiques ».
En statistique ou en épidémiologie, un biais est une démarche ou un procédé qui engendre des erreurs dans les résultats d'une étude. Formellement, le biais de l'estimateur d'un paramètre est la différence entre la valeur de l'espérance de cet estimateur (qui est une variable aléatoire) et la valeur qu'il est censé estimer (définie et fixe). biais effet-centre biais de vérification (work-up biais) biais d'autosélection, estimé à 27 % des travaux d'écologie entre 1960 et 1984 par le professeur de biologie américain Stuart H.
En statistiques, les techniques de bootstrap sont des méthodes d'inférence statistique basées sur la réplication multiple des données à partir du jeu de données étudié, selon les techniques de rééchantillonnage. Elles datent de la fin des années 1970, époque où la possibilité de calculs informatiques intensifs devient abordable. On calculait depuis près d'un siècle des estimations : mesures de dispersion (variance, écart-type), intervalles de confiance, tables de décision pour des tests d'hypothèse, etc.
En statistique, lanalyse de la variance (terme souvent abrégé par le terme anglais ANOVA : analysis of variance) est un ensemble de modèles statistiques utilisés pour vérifier si les moyennes des groupes proviennent d'une même population. Les groupes correspondent aux modalités d'une variable qualitative (p. ex. variable : traitement; modalités : programme d'entrainement sportif, suppléments alimentaires; placebo) et les moyennes sont calculés à partir d'une variable continue (p. ex. gain musculaire).