Méthode quantique semi-empiriqueLes méthodes semi-empiriques sont des techniques de résolution de l'équation de Schrödinger de systèmes à plusieurs électrons. Contrairement aux méthodes ab initio, les méthodes semi-empiriques utilisent des données ajustées sur des résultats expérimentaux afin de simplifier les calculs. La longueur et la difficulté des calculs est en grande partie due aux intégrales biélectroniques qui apparaissent au cours du processus de résolution.
Méthode expérimentaleLes méthodes expérimentales scientifiques consistent à tester la validité d'une hypothèse, en reproduisant un phénomène (souvent en laboratoire) et en faisant varier un paramètre. Le paramètre que l'on fait varier est impliqué dans l'hypothèse. Le résultat de l'expérience valide ou non l'hypothèse. La démarche expérimentale est appliquée dans les recherches dans des sciences telles que, par exemple, la biologie, la physique, la chimie, l'informatique, la psychologie, ou encore l'archéologie.
ExergieEn thermodynamique, l’exergie est une grandeur physique permettant de mesurer la qualité d'une énergie. C'est la partie utilisable d'un joule. Le travail maximal récupérable est ainsi égal à l’opposé de la variation d’exergie au cours de la transformation. Un système à l'équilibre thermomécanique ou chimique n'a plus aucune valeur. Plus un système est loin de l'équilibre ambiant, plus il est apte à opérer un changement, aptitude sur laquelle repose l'utilité d'une énergie.
Enthalpie libreL’enthalpie libre, appelée aussi énergie libre de Gibbs ou simplement énergie de Gibbs, est une fonction d'état extensive introduite par Willard Gibbs, et généralement notée G. Le changement d'enthalpie libre correspond au travail maximal qui peut être extrait d'un système fermé à température et pression fixes, hors le travail dû à la variation de volume. L'enthalpie libre est reliée à l'enthalpie par la formule (où désigne la température et l'entropie), à l'énergie libre par la relation (où désigne la pression et le volume) et à l'énergie interne par la relation .
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Physique expérimentalevignette|La physique expérimentale peut parfois recourir à des instruments de très grandes dimensions : ici, construction du détecteur CMS (Compact Muon Solenoid) du Grand collisionneur de hadrons (LHC) au CERN, en 2003. Les techniciens présents en bas de l'image donnent une idée des dimensions réelles de cet ensemble (15 m de diamètre, 21 m de long, pour un poids de 14 000 tonnes) installé 100 mètres sous la surface du sol.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Physique théoriquevignette|Discussion entre physiciens théoriciens à l'École de physique des Houches. La physique théorique est la branche de la physique qui étudie l’aspect théorique des lois physiques et en développe le formalisme mathématique. C'est dans ce domaine que l'on crée les théories, les équations et les constantes en rapport avec la physique. Elle constitue un champ d'études intermédiaire entre la physique expérimentale et les mathématiques, et a souvent contribué au développement de l’une comme de l’autre.
Biologie structuralevignette|droite|Structure 3D de la myoglobine du grand cachalot (PDB ID 1MBO), la première protéine dont la structure a été résolue par cristallographie aux rayons X par John Kendrew et al. en 1958. La biologie structurale est la branche de la biologie qui étudie la structure et l'organisation spatiale des macromolécules biologiques, principalement les protéines et les acides nucléiques.