Microscopie électronique en transmissionvignette|upright=1.5|Principe de fonctionnement du microscope électronique en transmission. vignette|Un microscope électronique en transmission (1976). La microscopie électronique en transmission (MET, ou TEM pour l'anglais transmission electron microscopy) est une technique de microscopie où un faisceau d'électrons est « transmis » à travers un échantillon très mince. Les effets d'interaction entre les électrons et l'échantillon donnent naissance à une image, dont la résolution peut atteindre 0,08 nanomètre (voire ).
Robustesse (statistiques)En statistiques, la robustesse d'un estimateur est sa capacité à ne pas être perturbé par une modification dans une petite partie des données ou dans les paramètres du modèle choisi pour l'estimation. Ricardo A. Maronna, R. Douglas Martin et Victor J. Yohai; Robust Statistics - Theory and Methods, Wiley Series in Probability and Statistics (2006). Dagnelie P.; Statistique théorique et appliquée. Tome 2 : Inférence statistique à une et à deux dimensions, Paris et Bruxelles (2006), De Boeck et Larcier.
Statistique de testEn statistique, une statistique de test - aussi appelée variable de décision - est une variable aléatoire construite à partir d'un échantillon statistique permettant de formuler une règle de décision pour un test statistique. Cette statistique n'est pas unique, ce qui permet de construire différentes règles de décision et de les comparer à l'aide de la notion de puissance statistique. Il est impératif de connaitre sa loi de probabilité lorsque l'hypothèse nulle est vraie. Sa loi sous l'hypothèse alternative est souvent inconnue.
CapillaritéLa capillarité est le phénomène d'interaction qui se produit aux interfaces entre deux liquides non miscibles, entre un liquide et l'air ou entre un liquide et une surface. Elle est due aux forces de tension superficielle entre les différentes phases en présence. On retrouve la capillarité lorsque les buvards aspirent l’encre, les éponges s’imbibent d’eau, ou quand on trempe une partie de son morceau de sucre dans son café et que ce sucre devient tout noir. Une bougie est constituée d'une mèche et de cire ou de stéarine.
Odontologie conservatriceL’odontologie conservatrice est la partie de la dentisterie qui s'occupe de soigner les dents, en éliminant le moins possible de matière dentaire saine (émail et dentine). Cela consiste essentiellement à éliminer les tissus cariés et à remplacer les tissus manquant par une obturation coronaire. Le dentiste utilise généralement des instruments rotatifs pour procéder à l'éviction des tissus ramollis par la carie.
Principe d'équivalenceOn énumère en général trois principes d'équivalence : le principe « faible », celui d'Einstein et le principe « fort ». Le premier est le constat de l'égalité entre la masse inertielle et la masse gravitationnelle. Albert Einstein présente le second comme une « interprétation » du premier en termes d'équivalence locale entre la gravitation et l'accélération (elles sont localement indistinguables) ; c'est un élément clé de la construction de la relativité générale.
Statistique exhaustiveLes statistiques exhaustives sont liées à la notion d'information et en particulier à l'information de Fisher. Elles servent entre autres à améliorer des estimateurs grâce à l'usage du théorème de Rao-Blackwell et du théorème de Lehmann-Scheffé. Intuitivement, parler d'une statistique exhaustive revient à dire que cette statistique contient l'ensemble de l'information sur le(s) paramètre(s) de la loi de probabilité. Soit un vecteur d'observation de taille , dont les composantes sont indépendantes et identiquement distribués (iid).
Principe anthropiqueLe principe anthropique est un principe épistémologique selon lequel les observations de l'Univers doivent être compatibles avec la présence d'un observateur étant une entité biologique douée de conscience et dotée d'une culture. Cette contrainte pourrait permettre d'orienter l'heuristique de la recherche scientifique fondamentale. Ce principe, proposé par l'astrophysicien Brandon Carter en 1974, se décline en deux versions principales.
Robust regressionIn robust statistics, robust regression seeks to overcome some limitations of traditional regression analysis. A regression analysis models the relationship between one or more independent variables and a dependent variable. Standard types of regression, such as ordinary least squares, have favourable properties if their underlying assumptions are true, but can give misleading results otherwise (i.e. are not robust to assumption violations).
Robust measures of scaleIn statistics, robust measures of scale are methods that quantify the statistical dispersion in a sample of numerical data while resisting outliers. The most common such robust statistics are the interquartile range (IQR) and the median absolute deviation (MAD). These are contrasted with conventional or non-robust measures of scale, such as sample standard deviation, which are greatly influenced by outliers.