Convenience samplingConvenience sampling (also known as grab sampling, accidental sampling, or opportunity sampling) is a type of non-probability sampling that involves the sample being drawn from that part of the population that is close to hand. This type of sampling is most useful for pilot testing. Convenience sampling is not often recommended for research due to the possibility of sampling error and lack of representation of the population. But it can be handy depending on the situation. In some situations, convenience sampling is the only possible option.
Rayon gammavignette|Des rayons gamma sont produits par des processus nucléaires énergétiques au cœur des noyaux atomiques. Un rayon gamma (ou rayon γ) est un rayonnement électromagnétique à haute fréquence émis lors de la désexcitation d'un noyau atomique résultant d'une désintégration. Les photons émis sont caractérisés par des énergies allant de quelques keV à plusieurs centaines de GeV voire jusqu'à pour le plus énergétique jamais observé. Les rayons gamma furent découverts en 1900 par Paul Villard, chimiste français.
Chaîne de désintégrationvignette|Différents modes de désintégration radioactive : radioactivités α, β et β, capture électronique (ε), émission de neutron (n) et émission de proton (p). N et Z sont le nombre de neutrons et le nombre de protons des noyaux considérés. Une chaîne de désintégration, ou chaîne radioactive, ou série radioactive, ou désintégration en cascade, ou encore filiation radioactive, est une succession de désintégrations d'un radioisotope jusqu'à un élément chimique dont le noyau atomique est stable (par conséquent non radioactif), généralement le plomb (Pb), élément le plus lourd possédant des isotopes stables.
Traitement du signalLe traitement du signal est la discipline qui développe et étudie les techniques de traitement, d'analyse et d' des . Parmi les types d'opérations possibles sur ces signaux, on peut dénoter le contrôle, le filtrage, la compression et la transmission de données, la réduction du bruit, la déconvolution, la prédiction, l'identification, la classification Bien que cette discipline trouve son origine dans les sciences de l'ingénieur (particulièrement l'électronique et l'automatique), elle fait aujourd'hui largement appel à de nombreux domaines des mathématiques, comme la , les processus stochastiques, les espaces vectoriels et l'algèbre linéaire et des mathématiques appliquées, notamment la théorie de l'information, l'optimisation ou encore l'analyse numérique.
Échantillon biaiséEn statistiques, le mot biais a un sens précis qui n'est pas tout à fait le sens habituel du mot. Un échantillon biaisé est un ensemble d'individus d'une population, censé la représenter, mais dont la sélection des individus a introduit un biais qui ne permet alors plus de conclure directement pour l'ensemble de la population. Un échantillon biaisé n'est donc pas un échantillon de personnes biaisées (bien que ça puisse être le cas) mais avant tout un échantillon sélectionné de façon biaisée.
Sample mean and covarianceThe sample mean (sample average) or empirical mean (empirical average), and the sample covariance or empirical covariance are statistics computed from a sample of data on one or more random variables. The sample mean is the average value (or mean value) of a sample of numbers taken from a larger population of numbers, where "population" indicates not number of people but the entirety of relevant data, whether collected or not. A sample of 40 companies' sales from the Fortune 500 might be used for convenience instead of looking at the population, all 500 companies' sales.
Nombre de sujets nécessairesEn statistique, la détermination du nombre de sujets nécessaires est l'acte de choisir le nombre d'observations ou de répétitions à inclure dans un échantillon statistique. Ce choix est très important pour pouvoir faire de l'inférence sur une population. En pratique, la taille de l'échantillon utilisé dans une étude est déterminée en fonction du coût de la collecte des données et de la nécessité d'avoir une puissance statistique suffisante.
Grand collisionneur électron-positronLe grand collisionneur électron-positron (en anglais : Large Electron Positron collider : LEP) était un accélérateur de particules circulaire de de circonférence, passant sous le site du CERN entre la France et la Suisse. En fonction de 1989 à 2000, le LEP demeure le plus puissant collisionneur de leptons jamais construit. vignette|Plan du complexe d'accélérateurs du CERN (le LHC remplace depuis 2008 le LEP). Les physiciens des pays membres du CERN ont développé l'idée du LEP vers la fin des années 1970.
Analogiquevignette|Un peson est un instrument de mesure analogique : une longueur est proportionnelle à une force. Le terme analogique indique qu'une chose est suffisamment semblable à une autre, d'un certain point de vue, pour que leur analogie permette de dire de l'une ou de faire avec l'une ce qui s'applique aussi à l'autre. Un appareil, particulièrement un instrument de mesure ou de communication qui représente une grandeur physique par une autre est analogique, comme aussi une méthode de calcul graphique par abaque ou règle à calcul.
Magnitude absolueEn astronomie, la magnitude absolue indique la luminosité intrinsèque d'un objet céleste, au contraire de la magnitude apparente qui dépend de la distance à l'astre et de l'extinction dans la ligne de visée. Pour un objet situé à l'extérieur du Système solaire, elle est définie par la magnitude apparente qu'aurait cet astre s'il était placé à une distance de référence fixée à 10 parsecs (environ 32,6 années-lumière) en l'absence d'extinction interstellaire.