Grand collisionneur électron-positronLe grand collisionneur électron-positron (en anglais : Large Electron Positron collider : LEP) était un accélérateur de particules circulaire de de circonférence, passant sous le site du CERN entre la France et la Suisse. En fonction de 1989 à 2000, le LEP demeure le plus puissant collisionneur de leptons jamais construit. vignette|Plan du complexe d'accélérateurs du CERN (le LHC remplace depuis 2008 le LEP). Les physiciens des pays membres du CERN ont développé l'idée du LEP vers la fin des années 1970.
Règle 68-95-99,7vignette|Illustration de la règle 68-95-99.7 (à partir d'une expérience réelle, ce qui explique l'asymétrie par rapport à la loi normale). En statistique, la règle 68-95-99,7 (ou règle des trois sigmas ou règle empirique) indique que pour une loi normale, presque toutes les valeurs se situent dans un intervalle centré autour de la moyenne et dont les bornes se situent à trois écarts-types de part et d'autre de celle-ci. Environ 68,27 % des valeurs se situent à moins d'un écart-type de la moyenne.
ATLAS (détecteur)thumb|Le détecteur ATLAS vers la fin février 2006 ATLAS (acronyme de A Toroidal LHC ApparatuS : - dispositif instrumental toroïdal pour le LHC - qui utilise un électro-aimant toroïdal où le champ magnétique se referme sur lui-même dans l'air, sans l'aide d'un retour de fer) est l'une des du collisionneur LHC au CERN. Il s'agit d'un détecteur de particules semblable à CMS, mais de plus grande taille et de conception différente. Il a pour tâche de détecter le boson de Higgs, des particules supersymétriques (SUSY).
Pooled varianceIn statistics, pooled variance (also known as combined variance, composite variance, or overall variance, and written ) is a method for estimating variance of several different populations when the mean of each population may be different, but one may assume that the variance of each population is the same. The numerical estimate resulting from the use of this method is also called the pooled variance. Under the assumption of equal population variances, the pooled sample variance provides a higher precision estimate of variance than the individual sample variances.
Fraction continue généraliséeEn mathématiques, une fraction continue généralisée est une expression de la forme : comportant un nombre fini ou infini d'étages. C'est donc une généralisation des fractions continues simples puisque dans ces dernières, tous les a sont égaux à 1. Une fraction continue généralisée est une généralisation des fractions continues où les numérateurs et dénominateurs partiels peuvent être des complexes quelconques : où an (n > 0) sont les numérateurs partiels et les bn les dénominateurs partiels.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Fraction continue de GaussEn analyse complexe, une fraction continue de Gauss est un cas particulier de fraction continue dérivé des fonctions hypergéométriques. Ce fut l'un des premiers exemples de fractions continues analytiques. Elles permettent de représenter des fonctions élémentaires importantes, ainsi que des fonctions spéciales transcendantes plus compliquées. Lambert a publié quelques exemples de fractions continues généralisées de cette forme en 1768, démontrant entre autres l'irrationalité de π ( § « Applications à F » ci-dessous).
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
StatistiqueLa statistique est la discipline qui étudie des phénomènes à travers la collecte de données, leur traitement, leur analyse, l'interprétation des résultats et leur présentation afin de rendre ces données compréhensibles par tous. C'est à la fois une branche des mathématiques appliquées, une méthode et un ensemble de techniques. ce qui permet de différencier ses applications mathématiques avec une statistique (avec une minuscule). Le pluriel est également souvent utilisé pour la désigner : « les statistiques ».
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.