Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Système d'exploitation distribuéUn système d'exploitation distribué est une couche logicielle au dessus d'un ensemble de nœuds de calculs indépendants, communiquant par un système de réseau propre ou général. Chaque nœud comprend dans ce type de système d'exploitation un sous ensemble de l’agrégat global. Chaque nœud comporte son propre noyau servant à contrôler le matériel et les couches basses des communications en réseau. Des logiciels de plus haut niveau sont chargés de coordonner les activités collaboratives de l'ensemble de la grappe et des éléments de chacun de ces nœuds.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Fonction gamma incomplèteEn analyse mathématique, il existe plusieurs définitions de fonctions gamma incomplètes : pour un paramètre complexe a de partie réelle strictement positive, La dérivée de la fonction gamma incomplète Γ(a, x) par rapport à x est l'opposée de l'intégrande de sa définition intégrale : La dérivée par rapport au paramètre a est donnée par et la dérivée seconde par où la fonction T(m, a, x) est un cas particulier de la Ce cas particulier possède des propriétés internes de fermeture qui lui sont propres parce qu'
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Générateur de nombres aléatoiresUn générateur de nombres aléatoires, random number generator (RNG) en anglais, est un dispositif capable de produire une suite de nombres pour lesquels il n'existe aucun lien calculable entre un nombre et ses prédécesseurs, de façon que cette séquence puisse être appelée « suite de nombres aléatoires ». Par extension, on utilise ce terme pour désigner des générateurs de nombres pseudo aléatoires, pour lesquels ce lien calculable existe, mais ne peut pas « facilement » être déduit.
Hasardvignette|Les jeux de dés sont des symboles du hasard (jeux de hasard). vignette|Tyché ou Fortuna et sa corne d'abondance (fortune, hasard, en grec ancien, sort en latin) déesse allégorique gréco-romaine de la chance, des coïncidences, de la fortune, de la prospérité, de la destinée...|alt= Le hasard est le principe déclencheur d'événements non liés à une cause connue. Il peut être synonyme de l'« imprévisibilité », de l'« imprédictibilité », de fortune ou de destin.
Mode de défaillanceLe mode de défaillance est la forme observable du dysfonctionnement d’un produit ou d’une opération du système étudié. Il sert de base de travail dans l'élaboration d'une analyse de type AMDEC Un mode de défaillance doit répondre aux caractéristiques suivantes : Il est relatif à la fonction étudiée. Il décrit la manière dont le système ne remplit plus sa fonction. Il s'exprime en termes techniques précis (court-circuit...) Il existe 5 modes génériques de défaillance : perte de la fonction fonctionnement in
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Fonction gammaEn mathématiques, la fonction gamma (notée par Γ la lettre grecque majuscule gamma de l'alphabet grec) est une fonction utilisée communément, qui prolonge de la fonction factorielle à l'ensemble des nombres complexes. En ce sens, il s'agit une fonction complexe. Elle est considérée également comme une fonction spéciale. La fonction gamma est défini pour tous les nombres complexes, à l'exception des entiers négatifs. On a pour tout entier strictement positif, où est la factorielle de , c'est-à-dire le produit des entiers entre 1 et : .