Système d'unitésUn système d'unités est un ensemble d'unités de mesure couramment employées dans des domaines d'activité humaine, présentant des caractères de cohérence qui en facilitent l'usage entre les organisations d'une société humaine. Historiquement, les systèmes d'unités ont été d'une grande importance, soumis à réglementation et définis dans des domaines scientifiques et commerciaux. Depuis que les civilisations se sont développées, les hommes ont cherché à développer des systèmes d'unités cohérents, afin de faciliter les échanges, tant scientifiques, que culturels, économiques, et financiers.
Aide à la décision multicritèreL'aide à la décision multicritère constitue une branche d'étude majeure de la recherche opérationnelle impliquant plusieurs écoles de pensée, principalement américaine avec les travaux de Thomas L. Saaty et européenne avec ceux de Bernard Roy et du LAMSADE (Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision). Il s'agit de méthodes et de calculs permettant de choisir la meilleure solution ou la solution optimale parmi tout un ensemble de solutions, l'alternative de type OUI-NON n'étant qu'un cas particulier du cas général.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Gestion stratégique de l'informationLa gestion stratégique de l'information (GSI ou information management en anglais) est une approche ou une philosophie dans la façon d'acquérir, de colliger, d'organiser, de conserver, de protéger et de communiquer l'information, que ce soit sous forme de documents divers ou d’informations tacites, dans les organisations, notamment les entreprises. Il s'agit essentiellement d'orienter et de penser ses activités d'acquisition, d'organisation et de redistribution de l'information de sorte qu'elles permettent à une organisation d’être le plus efficace possible en fonction de ses objectifs stratégiques.
ComportementLe terme « comportement » désigne les actions d'un être vivant. Il a été introduit en psychologie française en 1908 par Henri Piéron comme équivalent français de l'anglais-américain behavior. On l'utilise notamment en éthologie (humaine et animale) ou en psychologie expérimentale. Il peut aussi être pris comme équivalent de conduite dans l'approche psychanalytique. Le comportement d'un être vivant est la partie de son activité qui se manifeste à un observateur.
Unité de mesureEn physique et en métrologie, une est une . Une unité de mesure peut être définie à partir de constantes fondamentales ou par un étalon, utilisé pour la mesure. Les systèmes d'unités, définis en cherchant le plus large accord dans le domaine considéré, sont rendus nécessaires par la méthode scientifique, dont l'un des fondements est la reproductibilité des expériences (donc des mesures), ainsi que par le développement des échanges d'informations commerciales ou industrielles.
Problème de la mesure quantiqueLe problème de la mesure quantique consiste en un ensemble de problèmes, qui mettent en évidence des difficultés de corrélation entre les postulats de la mécanique quantique et le monde macroscopique tel qu'il nous apparaît ou tel qu'il est mesuré.
Information gain (decision tree)In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Mesure physiqueLa mesure physique est l'action de déterminer la ou les valeurs d'une grandeur (longueur, capacité), par comparaison avec une grandeur constante de même espèce prise comme terme de référence (étalon ou unité). Selon la définition canonique : La mesure physique vise à l'objectivité et à la reproductibilité. La comparaison est numérique ; on exprime une caractéristique bien définie de l'objet par un nombre rationnel multipliant l'unité.