Énergie noirevignette|redresse=1.1|Répartition de la densité d'énergie de l'Univers après exploitation des premières données obtenues par le satellite Planck. L'énergie noire en serait la composante principale. En cosmologie, lénergie noire ou énergie sombre (dark energy) est une forme d'énergie hypothétique remplissant uniformément tout l'Univers et dotée d'une pression négative, elle se comporte comme une force gravitationnelle répulsive.
Constante fondamentaleEn physique, la notion de constante fondamentale désigne une grandeur fixe, intervenant dans les équations de la physique, qui ne peut pas être déterminée par une théorie sous-jacente dont les équations seraient un cas limite ou une théorie effective. C'est donc un statut provisoire, car il se peut qu'une théorie plus fondamentale apparaisse qui permette la détermination d'une constante « fondamentale » pour un certain niveau de théorie effective.
Principe anthropiqueLe principe anthropique est un principe épistémologique selon lequel les observations de l'Univers doivent être compatibles avec la présence d'un observateur étant une entité biologique douée de conscience et dotée d'une culture. Cette contrainte pourrait permettre d'orienter l'heuristique de la recherche scientifique fondamentale. Ce principe, proposé par l'astrophysicien Brandon Carter en 1974, se décline en deux versions principales.
Sample mean and covarianceThe sample mean (sample average) or empirical mean (empirical average), and the sample covariance or empirical covariance are statistics computed from a sample of data on one or more random variables. The sample mean is the average value (or mean value) of a sample of numbers taken from a larger population of numbers, where "population" indicates not number of people but the entirety of relevant data, whether collected or not. A sample of 40 companies' sales from the Fortune 500 might be used for convenience instead of looking at the population, all 500 companies' sales.
Nombre de sujets nécessairesEn statistique, la détermination du nombre de sujets nécessaires est l'acte de choisir le nombre d'observations ou de répétitions à inclure dans un échantillon statistique. Ce choix est très important pour pouvoir faire de l'inférence sur une population. En pratique, la taille de l'échantillon utilisé dans une étude est déterminée en fonction du coût de la collecte des données et de la nécessité d'avoir une puissance statistique suffisante.
B-factoryIn particle physics, a B-factory, or sometimes a beauty factory, is a particle collider experiment designed to produce and detect a large number of B mesons so that their properties and behavior can be measured with small statistical uncertainty. Tau leptons and D mesons are also copiously produced at B-factories. A sort of "prototype" or "precursor" B-factory was the HERA-B experiment at DESY that was planned to study B-meson physics in the 1990–2000s, before the actual B-factories were constructed/operational.
Décroissance exponentiellethumb|La décharge d'un condensateur est à décroissance exponentielle. La décroissance exponentielle d'une quantité est sa diminution au fil du temps selon une loi exponentielle. On l'observe quand la dérivée par rapport au temps de cette quantité (c'est-à-dire son taux de variation instantané) est négative et proportionnelle à la quantité elle-même. Dans la langue courante on emploie souvent, mais improprement, le terme « décroissance exponentielle » pour qualifier une diminution simplement décélérée, quand la valeur absolue de la dérivée est elle-même décroissante.
Théorème central limitethumb|upright=2|La loi normale, souvent appelée la « courbe en cloche ». Le théorème central limite (aussi appelé théorème limite central, théorème de la limite centrale ou théorème de la limite centrée) établit la convergence en loi de la somme d'une suite de variables aléatoires vers la loi normale. Intuitivement, ce résultat affirme qu'une somme de variables aléatoires indépendantes et identiquement distribuées tend (le plus souvent) vers une variable aléatoire gaussienne.
Théorie quantique des champsvignette|296x296px|Ce diagramme de Feynman représente l'annihilation d'un électron et d'un positron, qui produit un photon (représenté par une ligne ondulée bleue). Ce photon se décompose en une paire quark-antiquark, puis l'antiquark émet un gluon (représenté par la courbe verte). Ce type de diagramme permet à la fois de représenter approximativement les processus physiques mais également de calculer précisément leurs propriétés, comme la section efficace de collision.
Chaîne proton-protonLa chaîne proton-proton, aussi connue sous le nom de « chaîne PP », est l'une des deux chaînes de réactions de fusion nucléaire par lesquelles les étoiles produisent de l'énergie, l'autre réaction étant le cycle carbone-azote-oxygène. Elle est prédominante dans les étoiles de masse relativement faible, comme celle du Soleil ou moindre. Fichier:Wpdms physics proton proton chain 1.svg|Fusion de deux protons pour former un noyau de deutérium et émettre un positron et un neutrino. Fichier:Wpdms physics proton proton chain 2.