Système complexevignette|Visualisation sous forme de graphe d'un réseau social illustrant un système complexe. Un système complexe est un ensemble constitué d'un grand nombre d'entités en interaction dont l'intégration permet d'achever un but commun. Les systèmes complexes sont caractérisés par des propriétés émergentes qui n'existent qu'au niveau du système et ne peuvent pas être observées au niveau de ses constituants. Dans certains cas, un observateur ne peut pas prévoir les rétroactions ou les comportements ou évolutions des systèmes complexes par le calcul, ce qui amène à les étudier à l'aide de la théorie du chaos.
Condition aux limites mêléeEn mathématiques, une condition aux limites mêlée ou mixte correspond à la juxtaposition de différentes conditions aux limites sur différentes parties du bord (ou frontière) du domaine dans lequel est posée une équation aux dérivées partielles ou une équation différentielle ordinaire. Par exemple, si l'on considère les vibrations d'une corde élastique de longueur L se déplaçant à une vitesse c dont une extrémité (en 0) est fixe, et l'autre (en L) est attachée à un anneau oscillant librement le long d'une tige droite, on a alors une équation sur un intervalle [0,L].
Systems scienceSystems science, also referred to as systems research, or, simply, systems, is a transdisciplinary field concerned with understanding systems—from simple to complex—in nature, society, cognition, engineering, technology and science itself. The field is diverse, spanning the formal, natural, social, and applied sciences. To systems scientists, the world can be understood as a system of systems.
Gestion stratégique de l'informationLa gestion stratégique de l'information (GSI ou information management en anglais) est une approche ou une philosophie dans la façon d'acquérir, de colliger, d'organiser, de conserver, de protéger et de communiquer l'information, que ce soit sous forme de documents divers ou d’informations tacites, dans les organisations, notamment les entreprises. Il s'agit essentiellement d'orienter et de penser ses activités d'acquisition, d'organisation et de redistribution de l'information de sorte qu'elles permettent à une organisation d’être le plus efficace possible en fonction de ses objectifs stratégiques.
Auto-organisationL'auto-organisation ou autoorganisation est un phénomène par lequel un système s'organise lui-même. Les systèmes physiques, biologiques ou écologiques, sociaux, ont tendance à s'organiser d'eux-mêmes. Il s'agit soit de l'organisation initiale du système lors de son émergence spontanée, soit lorsque le système existe déjà de l'apparition d'une organisation plus ou complexe. L'auto-organisation agit ainsi à l'encontre de l'entropie (on parle alors de néguentropie), qui est une mesure de désordre.
Processus stationnairePour accéder aux propriétés essentielles d'un signal physique il peut être commode de le considérer comme une réalisation d'un processus aléatoire (voir quelques précisions dans Processus continu). Le problème est largement simplifié si le processus associé au signal peut être considéré comme un processus stationnaire, c'est-à-dire si ses propriétés statistiques caractérisées par des espérances mathématiques sont indépendantes du temps.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Débit (hydrologie)thumb|Seuil de mesure du débit d'un cours d'eau dans le parc de Yellowstone (États-Unis). Le débit d'un cours d'eau est le volume d'eau liquide traversant une section transversale de l'écoulement, par unité de temps. Il comprend tout ce qui est transporté avec cette eau, comme les matières solides en suspension (exemples : le sable, les sédiments), les produits chimiques dissous (exemples : le calcaire, les sels dont les nitrates, sulfates, chlorures et phosphates), des éléments biologiques (exemple : les diatomées).
Science de l'informationLa science de l'information (ou les sciences de l'information) est un champ disciplinaire ayant pour objet scientifique l'information, lequel est principalement concerné par l'analyse, la collecte, la classification, la manipulation, le stockage, la récupération, la circulation, la diffusion et la protection de l'information. Les praticiens, qu'ils travaillent ou non sur le terrain, étudient l'application et l'utilisation des connaissances dans les organisations, ainsi que l'interaction entre les personnes, les organisations et tout système d'information existant, dans le but de créer, remplacer, améliorer ou comprendre les systèmes d'information.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.