SfermionLe terme sfermion désigne une catégorie de particules élémentaires dont l'existence est prédite par une théorie de la physique des particules. La supersymétrie est un développement au-delà du modèle standard qui propose pour chaque particule élémentaire du modèle standard l'existence d'un superpartenaire plus massif ; le superpartenaire d'un fermion est un boson, et le superpartenaire d'un boson est un fermion. Le terme sfermion s'applique à l'ensemble des superpartenaires des fermions du modèle standard.
Tau neutrinoThe tau neutrino or tauon neutrino is an elementary particle which has the symbol _Tauon neutrino and zero electric charge. Together with the tau (τ), it forms the third generation of leptons, hence the name tau neutrino. Its existence was immediately implied after the tau particle was detected in a series of experiments between 1974 and 1977 by Martin Lewis Perl with his colleagues at the SLAC–LBL group. The discovery of the tau neutrino was announced in July 2000 by the DONUT collaboration (Direct Observation of the Nu Tau).
Échantillonnage (statistiques)thumb|Exemple d'échantillonnage aléatoire En statistique, l'échantillonnage désigne les méthodes de sélection d'un sous-ensemble d'individus (un échantillon) à l'intérieur d'une population pour estimer les caractéristiques de l'ensemble de la population. Cette méthode présente plusieurs avantages : une étude restreinte sur une partie de la population, un moindre coût, une collecte des données plus rapide que si l'étude avait été réalisé sur l'ensemble de la population, la réalisation de contrôles destructifs Les résultats obtenus constituent un échantillon.
Règle 68-95-99,7vignette|Illustration de la règle 68-95-99.7 (à partir d'une expérience réelle, ce qui explique l'asymétrie par rapport à la loi normale). En statistique, la règle 68-95-99,7 (ou règle des trois sigmas ou règle empirique) indique que pour une loi normale, presque toutes les valeurs se situent dans un intervalle centré autour de la moyenne et dont les bornes se situent à trois écarts-types de part et d'autre de celle-ci. Environ 68,27 % des valeurs se situent à moins d'un écart-type de la moyenne.
Détecteur de particulesvignette|Photographie de rayonnements α détectés dans une chambre à brouillard. Un détecteur de particules est un appareil qui permet de détecter le passage d'une particule et, généralement, d'en déduire différentes caractéristiques (en fonction du type de détecteur) telles que sa masse, son énergie, son impulsion, son spin, ou encore sa charge électrique. Cavité de Faraday Chambre à brouillard Chambre à bulles Chambre à dérive Chambre à étincelles Chambre à fils Chambre d'ionisation Chambre à plaques paral
AntiprotonL'antiproton est l'antiparticule du proton. Les antiprotons sont stables, mais ils ont généralement une durée de vie courte, une collision avec un proton ordinaire faisant disparaître les deux particules. L'antiproton est observé pour la première fois en 1955, au cours d'une expérience conduite dans le bevatron du laboratoire national Lawrence-Berkeley, un accélérateur de particules. Quatre ans plus tard, les physiciens américains Emilio Segrè et Owen Chamberlain reçoivent le prix Nobel de physique pour la découverte de cette antiparticule.
Annihilation (physique)En physique, l’annihilation ou anéantissement correspond à la collision entre une particule sous-atomique et son antiparticule respective. Puisque l’énergie et la quantité de mouvement doivent être conservées, les particules ne se muent pas en rien, mais plutôt en nouvelles particules. Les antiparticules possèdent des nombres quantiques exactement opposés à ceux des particules, donc la somme des nombres quantiques du pair égale zéro.
Échantillonnage stratifiévignette|Vous prenez un échantillon aléatoire stratifié en divisant d'abord la population en groupes homogènes (semblables en eux-mêmes) (strates) qui sont distincts les uns des autres, c'est-à-dire. Le groupe 1 est différent du groupe 2. Ensuite, choisissez un EAS (échantillon aléatoire simple) distinct dans chaque strate et combinez ces EAS pour former l'échantillon complet. L'échantillonnage aléatoire stratifié est utilisé pour produire des échantillons non biaisés.
Marge d'erreurEn statistiques, la marge d'erreur est une estimation de l'étendue que les résultats d'un sondage peuvent avoir si l'on recommence l'enquête. Plus la marge d'erreur est importante, moins les résultats sont fiables et plus la probabilité qu'ils soient écartés de la réalité est importante. La marge d'erreur peut être calculée directement à partir de la taille de l'échantillon (par exemple, le nombre de personnes sondées) et est habituellement reportée par l'un des trois différents niveaux de l'intervalle de confiance.
Coverage probabilityIn statistics, the coverage probability, or coverage for short, is the probability that a confidence interval or confidence region will include the true value (parameter) of interest. It can be defined as the proportion of instances where the interval surrounds the true value as assessed by long-run frequency. The fixed degree of certainty pre-specified by the analyst, referred to as the confidence level or confidence coefficient of the constructed interval, is effectively the nominal coverage probability of the procedure for constructing confidence intervals.