Microscope à force atomiquethumb|350px|Le premier microscope à force atomique du monde, au musée de la Science de Londres. Le microscope à force atomique (AFM pour atomic force microscope) est un type de microscope à sonde locale permettant de visualiser la topographie de la surface d'un échantillon. Inventé en 1985, par Gerd Binnig, Calvin Quate et Christoph Gerber, ce type de microscopie repose essentiellement sur l'analyse d'un objet point par point au moyen d'un balayage via une sonde locale, assimilable à une pointe effilée.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Low-voltage electron microscopeLow-voltage electron microscope (LVEM) is an electron microscope which operates at accelerating voltages of a few kiloelectronvolts or less. Traditional electron microscopes use accelerating voltages in the range of 10-1000 keV. Low voltage imaging in transmitted electrons is possible in many new scanning electron detector. Low cost alternative is dedicated table top low voltage transmission electron microscope.
Information gain (decision tree)In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one.
Science des matériauxLa science des matériaux repose sur la relation entre les propriétés, la morphologie structurale et la mise en œuvre des matériaux qui constituent les objets qui nous entourent (métaux, polymères, semi-conducteurs, céramiques, composites, etc.). Elle se focalise sur l'étude des principales caractéristiques des matériaux, ainsi que leurs propriétés mécaniques, chimiques, électriques, thermiques, optiques et magnétiques. La science des matériaux est au cœur de beaucoup des grandes révolutions techniques.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Semi-conducteur organiquevignette|Molécules de quinacridone (semi-conducteur organique) adsorbées sur une surface de graphite. Un semi-conducteur organique est un composé organique, sous la forme d'un cristal ou d'un polymère, qui montre des propriétés similaires aux semi-conducteurs inorganiques. Ses propriétés sont la conduction par les électrons et les trous, ainsi que la présence d'une bande interdite. Ces matériaux ont donné naissance à l'électronique organique, ou électronique des plastiques.
Composition chimiqueLa matière étant constituée en général de plusieurs corps purs (composés chimiques et corps simples), la composition chimique d'un produit fournit la quantité ou la proportion de chacun des corps purs qui le composent ; on les appelle de manière générique des composants. On parle de : composition qualitative lorsque l'on se contente simplement d'identifier les composants. Par exemple, l'air est essentiellement composé de diazote et de dioxygène ; composition quantitative lorsqu'on leur adjoint les concentrations, les quantités.
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Substance chimiquethumb|Différentes substances chimiques de la famille des lanthanides. Une substance chimique, ou produit chimique (parfois appelée substance pure), est tout échantillon de matière de composition chimique définie et présentant des propriétés caractéristiques (couleur, odeur, densité, point de fusion), indépendamment de son origine. Il n'est pas toujours aisé de donner une définition précise d'une substance chimique. De manière générale, cette notion désigne un produit manufacturé (synthétisé) par l'Homme (n'existant pas dans la nature ou copiant des molécules existant dans la nature).