Information gain (decision tree)In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one.
Conception-réalisationLa conception-réalisation est une méthode de livraison de projets utilisée dans l'industrie de la construction. C'est une méthode pour livrer un projet dans lequel les services de conception et de construction sont sous-traités par une seule entité connue sous le nom de concepteur-constructeur ou entrepreneur de conception-réalisation. Elle peut être catégorisée en conception-construction dirigée par l'architecte ou en conception-construction dirigée par l'entrepreneur.
Dette du tiers mondeLa dette du tiers monde est une dette extérieure contractée par les pays du tiers monde (le terme « tiers monde » est toujours employé, bien qu'on lui préfère désormais souvent d'autres expressions telles que « pays en voie de développement » (PVD) ou pays en développement (PED)) ou encore pays du Sud. Cette dette correspond tant à des prêts souverains (d'autres États, du FMI, de la Banque mondiale, etc.) que des financements privés (prêts bancaires, obligations placées auprès de fonds de placement...).
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Système d'information géographiqueUn système d'information géographique ou SIG (en anglais, geographic information system ou GIS) est un système d'information conçu pour recueillir, stocker, traiter, analyser, gérer et présenter tous les types de données spatiales et géographiques. L’acronyme SIG est parfois utilisé pour définir les « sciences de l’information géographique » ou « études sur l’information géospatiale ». Cela se réfère aux carrières ou aux métiers qui impliquent l'usage de systèmes d’information géographique et, dans une plus large mesure, qui concernent les disciplines de la géo-informatique (ou géomatique).
Building information modelingvignette|redresse=0.6|BIM : Building Information Modeling. BIM est le sigle anglais de Building Information Modeling, de Building Information Model, ou encore de Building Information Management, et le rétroacronyme de bâti immobilier modélisé. Il désigne les outils de modélisation des informations de la construction implémentés par des applications qui permettent la modélisation des données du bâtiment, d'une structure, d'un édifice ou d'un ouvrage.
InfrastructureL'infrastructure est un ensemble d'éléments, d'ouvrages ou d'installations interdépendants qui supportent en partie ou en totalité une structure ou un réseau. Ces infrastructures peuvent être : la fondation d'une construction (par exemple: solage, semelle de fondation ou dalles portant des charges), généralement dans le sol ; une construction implantée sur le sol (par exemple: ponts, routes, voies ferrées, aéroports, barrages) ; un ensemble d'équipements interconnectés (par exemple : réseaux d'aqueduc et/ou d'égouts, réseaux électriques, réseaux téléphoniques) ; des réseaux de hautes technologies (par exemple: réseaux Internet ou intranet, réseaux satellitaires, réseaux 5G, réseaux IoT).
MéthodologieLa méthodologie est l'étude de l'ensemble des méthodes scientifiques. Elle peut être considérée comme la science de la méthode, ou « méthode des méthodes » (comme il y a une métalinguistique ou linguistique des linguistiques et une métamathématique ou mathématique des mathématiques). Alors, la méthodologie est une classe de méthodes, une sorte de boîte à outils où chaque outil est une méthode de la même catégorie, comme il y a une méthodologie analytique du déterminisme causal et une méthodologie systémique finaliste de la téléologie.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Théorie de l'utilité espéréeLa théorie de l'utilité espérée (aussi appelée théorie EU, de l'anglais « expected utility ») est une théorie de la décision en environnement risqué développée par John von Neumann et Oskar Morgenstern dans leur ouvrage Theory of Games and Economic Behavior (1944). Introduisons d'abord quelques notations: L'incertitude est décrite par un ensemble d'états du monde partitionné par la famille de parties (de taille ). Un élément de est appelé événement. Une variable aléatoire est une fonction qui associe à chaque un résultat noté .