Nonpoint source pollutionNonpoint source (NPS) pollution refers to diffuse contamination (or pollution) of water or air that does not originate from a single discrete source. This type of pollution is often the cumulative effect of small amounts of contaminants gathered from a large area. It is in contrast to point source pollution which results from a single source. Nonpoint source pollution generally results from land runoff, precipitation, atmospheric deposition, drainage, seepage, or hydrological modification (rainfall and snowmelt) where tracing pollution back to a single source is difficult.
Polluant organique persistantvignette|En 1958, le programme national d'éradication du paludisme des États-Unis a utilisé une approche entièrement nouvelle mettant en œuvre le DDT pour la pulvérisation des moustiques. Le DDT, développé pour la première fois au début de la Seconde Guerre mondiale, était très efficace dans la lutte contre les maladies à transmission vectorielle telles que le paludisme, le typhus, mais a été interdit par l'Environmental Protection Agency en juin 1972, d'utilisation générale aux États-Unis.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Entropy in thermodynamics and information theoryThe mathematical expressions for thermodynamic entropy in the statistical thermodynamics formulation established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s are similar to the information entropy by Claude Shannon and Ralph Hartley, developed in the 1940s. The defining expression for entropy in the theory of statistical mechanics established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s, is of the form: where is the probability of the microstate i taken from an equilibrium ensemble, and is the Boltzmann's constant.
Indice de qualité de l'airUn indice de la qualité de l'air est une mesure de la qualité de l'air, permettant de synthétiser différentes données sous la forme d'une valeur unique. En 2016, d'après un nouveau modèle de qualité de l'air basé sur des données satellitaires, du transport aérien et plus de d'analyse de l'air au sol (rurales et urbaines), produit par l'Organisation mondiale de la santé (OMS) et l'Université de Bath, 92 % de la population mondiale respire un air trop pollué.
Pollution de l'airvignette|En 2013, l'Organisation mondiale de la santé a reconnu que la pollution de l'air extérieur est un cancérigène certain. vignette|Les émissions de monoxyde de carbone, de soufre, de suies et de particules liées à la combustion du charbon ont probablement été la première source de pollution majeure de l'air, dès le début de l'ère industrielle. Les transports ferroviaires y contribuaient largement, davantage par la construction des infrastructures (notamment la fabrication des rails) que du fait des émanations des locomotives.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().