Quark modelIn particle physics, the quark model is a classification scheme for hadrons in terms of their valence quarks—the quarks and antiquarks which give rise to the quantum numbers of the hadrons. The quark model underlies "flavor SU(3)", or the Eightfold Way, the successful classification scheme organizing the large number of lighter hadrons that were being discovered starting in the 1950s and continuing through the 1960s. It received experimental verification beginning in the late 1960s and is a valid effective classification of them to date.
Confidence distributionIn statistical inference, the concept of a confidence distribution (CD) has often been loosely referred to as a distribution function on the parameter space that can represent confidence intervals of all levels for a parameter of interest. Historically, it has typically been constructed by inverting the upper limits of lower sided confidence intervals of all levels, and it was also commonly associated with a fiducial interpretation (fiducial distribution), although it is a purely frequentist concept.
LuminositéEn astronomie, la luminosité est la quantité totale d'énergie émise par unité de temps (le flux énergétique), par une étoile, une galaxie, ou n'importe quel autre objet céleste. Elle s'exprime en pratique en luminosité solaire ( = ). Le flux lumineux, qui mesure plus particulièrement l'émission en lumière visible, peut également s'exprimer sur une échelle logarithmique par la magnitude absolue. En astronomie, elle représente la quantité totale d'énergie rayonnée (dans le domaine de l'électromagnétisme) par unité de temps par un astre.
Grande unificationEn physique théorique, une théorie de grande unification, encore appelée GUT (pour Grand Unified Theory en anglais) est un modèle de la physique des particules dans lequel les trois interactions de jauge du modèle standard (électromagnétique, nucléaire faible et nucléaire forte) se fusionnent en une seule à hautes énergies. Cette interaction unifiée est caractérisée par une symétrie de jauge plus grande et donc plusieurs vecteurs de force, mais une seule constante de couplage unifiée.
Règle 68-95-99,7vignette|Illustration de la règle 68-95-99.7 (à partir d'une expérience réelle, ce qui explique l'asymétrie par rapport à la loi normale). En statistique, la règle 68-95-99,7 (ou règle des trois sigmas ou règle empirique) indique que pour une loi normale, presque toutes les valeurs se situent dans un intervalle centré autour de la moyenne et dont les bornes se situent à trois écarts-types de part et d'autre de celle-ci. Environ 68,27 % des valeurs se situent à moins d'un écart-type de la moyenne.
Limite (mathématiques)En analyse mathématique, la notion de limite décrit l’approximation des valeurs d'une suite lorsque l'indice tend vers l’infini, ou d'une fonction lorsque la variable se rapproche d’un point (éventuellement infini) au bord du domaine de définition. Si une telle limite existe dans l’ensemble d’arrivée, on dit que la suite ou la fonction est convergente (au point étudié). Si ce n’est pas le cas, elle est divergente, comme dans le cas de suites et fonctions périodiques non constantes (telle la fonction sinus en +∞).
Diagramme de Feynmanupright=1.2|vignette|Diagramme de Feynman : un électron et un positron (e- et e+) s'annihilent en produisant un photon virtuel (en bleu) qui devient une paire quark-antiquark (q et q̄), puis l'antiquark émet un gluon (en vert). Le temps est ici en abscisse, de gauche à droite ; l'espace est en ordonnée.Les flèches symbolisent le type de l'objet (particules ">", vers le futur, et anti particule "
RenormalisationEn théorie quantique des champs (ou QFT), en mécanique statistique des champs, dans la théorie des structures géométriques autosimilaires, une renormalisation est une manière, variable dans sa nature, de prendre la limite du continu quand certaines constructions statistiques et quantiques deviennent indéfinies. La renormalisation détermine la façon de relier les paramètres de la théorie quand ces paramètres à grande échelle diffèrent de leur valeur à petite échelle.
Coverage probabilityIn statistics, the coverage probability, or coverage for short, is the probability that a confidence interval or confidence region will include the true value (parameter) of interest. It can be defined as the proportion of instances where the interval surrounds the true value as assessed by long-run frequency. The fixed degree of certainty pre-specified by the analyst, referred to as the confidence level or confidence coefficient of the constructed interval, is effectively the nominal coverage probability of the procedure for constructing confidence intervals.
Confidence regionIn statistics, a confidence region is a multi-dimensional generalization of a confidence interval. It is a set of points in an n-dimensional space, often represented as an ellipsoid around a point which is an estimated solution to a problem, although other shapes can occur. Confidence interval#Meaning and interpretation The confidence region is calculated in such a way that if a set of measurements were repeated many times and a confidence region calculated in the same way on each set of measurements, then a certain percentage of the time (e.