Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Probabilité conditionnellevignette|Illustration des probabilités conditionnelles avec un diagramme d'Euler. On a la probabilité a priori et les probabilités conditionnelles , et .|320x320px En théorie des probabilités, une probabilité conditionnelle est la probabilité d'un événement sachant qu'un autre événement a eu lieu. Par exemple, si une carte d'un jeu est tirée au hasard, on estime qu'il y a une chance sur quatre d'obtenir un cœur ; mais si on aperçoit un reflet rouge sur la table, il y a maintenant une chance sur deux d'obtenir un cœur.
Méthode de décodageEn théorie des codes, il existe plusieurs méthodes standards pour décoder des mots de code transmis sur un canal de communication avec bruit. Ce sont donc des techniques qui servent à effectuer l'opération inverse du codage de canal. Le décodage par vote majoritaire. Le décodage par observateur idéal. Le décodage par probabilité maximale. Le décodage par distance minimale. Le décodage par syndrome est une méthode de décodage très efficace pour un code linéaire sur un canal de communication avec bruit.
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Bruit gaussienEn traitement du signal, un bruit gaussien est un bruit dont la densité de probabilité est une distribution gaussienne (loi normale). L'adjectif gaussien fait référence au mathématicien, astronome et physicien allemand Carl Friedrich Gauss. La densité de probabilité d'une variable aléatoire gaussienne est la fonction : où représente le niveau de gris, la valeur de gris moyenne et son écart type. Un cas particulier est le bruit blanc gaussien, dans lequel les valeurs à toute paire de temps sont identiquement distribuées et statistiquement indépendantes (et donc ).
Relation interpersonnelleLes relations interpersonnelles, domaine relatif aux relations humaines, ont lieu lorsqu'au moins deux personnes sont en interaction. Il s'agit d'un sujet d'étude clé de la psychologie sociale pour la compréhension des rapports ayant lieu au sein de petits groupes de personnes ou plus largement à l'intérieur de groupes sociaux. Ce sujet étudie comment les comportements individuels sont influencés par ceux des autres personnes et s'y opposent ou s'y adaptent. Il intéresse aussi la sociologie au niveau de la structuration des relations humaines.
Conditional probability tableIn statistics, the conditional probability table (CPT) is defined for a set of discrete and mutually dependent random variables to display conditional probabilities of a single variable with respect to the others (i.e., the probability of each possible value of one variable if we know the values taken on by the other variables). For example, assume there are three random variables where each has states.
Communication organisationnelleLa communication organisationnelle est l'étude de la communication subordonnée à l'action organisée. C'est aussi l'ensemble des moyens de communication mis en œuvre pour la réalisation d'une tâche organisée. Dans le domaine de la recherche, aux États-Unis ce champ de recherche relève tout naturellement des communication studies, en France la communication organisationnelle est un domaine qui peut être revendiqué par des chercheurs des Sciences de l'Information et de la Communication, mais aussi en Sociologie des organisations, ou encore en sciences de gestion.
Loi de probabilité d'entropie maximaleEn statistique et en théorie de l'information, une loi de probabilité d'entropie maximale a une entropie qui est au moins aussi grande que celle de tous les autres membres d'une classe spécifiée de lois de probabilité. Selon le principe d'entropie maximale, si rien n'est connu sur une loi , sauf qu'elle appartient à une certaine classe (généralement définie en termes de propriétés ou de mesures spécifiées), alors la loi avec la plus grande entropie doit être choisie comme la moins informative par défaut.
Indecomposable distributionIn probability theory, an indecomposable distribution is a probability distribution that cannot be represented as the distribution of the sum of two or more non-constant independent random variables: Z ≠ X + Y. If it can be so expressed, it is decomposable: Z = X + Y. If, further, it can be expressed as the distribution of the sum of two or more independent identically distributed random variables, then it is divisible: Z = X1 + X2. The simplest examples are Bernoulli-distributeds: if then the probability distribution of X is indecomposable.