Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Neurosciences computationnellesLes neurosciences computationnelles (NSC) sont un champ de recherche des neurosciences qui s'applique à découvrir les principes computationnels des fonctions cérébrales et de l'activité neuronale, c'est-à-dire des algorithmes génériques qui permettent de comprendre l'implémentation dans notre système nerveux central du traitement de l'information associé à nos fonctions cognitives. Ce but a été défini en premier lieu par David Marr dans une série d'articles fondateurs.
Codage neuronalLe codage neuronal désigne, en neurosciences, la relation hypothétique entre le stimulus et les réponses neuronales individuelles ou globales. C'est une théorie sur l'activité électrique du système nerveux, selon laquelle les informations, par exemple sensorielles, numériques ou analogiques, sont représentées dans le cerveau par des réseaux de neurones. Le codage neuronal est lié aux concepts du souvenir, de l'association et de la mémoire sensorielle.
Système sensorielUn système sensoriel est une partie du système nerveux responsable de la sensation. Il regroupe les récepteurs sensoriels, les voies nerveuses, et les parties du cerveau responsables du traitement de l'information sensorielle. L'ensemble des systèmes sensoriels se divisent en sensibilité générale ou somesthésie et en sens dits spécifiques : la vision, l'odorat, le goût, l'ouïe et le toucher. Il existe sept sens : les cinq sens vu ci-dessus (vision, odorat, goût, ouïe et toucher), ainsi que le système vestibulaire et le système proprioceptif.
Intégration sensorielleL’intégration sensorielle fait référence à plusieurs concepts différents. En neurophysiologie, l’intégration sensorielle se réfère au processus neurologique impliquant la réception, la modulation et l’intégration des informations sensorielles. Le système nerveux transforme les sensations en perceptions en organisant les informations sensorielles provenant du corps et de l’environnement (fournies par les différents systèmes sensoriels : tactile, auditif, visuel, gustatif/olfactif, vestibulaire, proprioceptif) afin d’utiliser efficacement le corps.
Interaction informationThe interaction information is a generalization of the mutual information for more than two variables. There are many names for interaction information, including amount of information, information correlation, co-information, and simply mutual information. Interaction information expresses the amount of information (redundancy or synergy) bound up in a set of variables, beyond that which is present in any subset of those variables. Unlike the mutual information, the interaction information can be either positive or negative.
Trouble de l'intégration sensorielleLe trouble du traitement sensoriel (ou SPD, pour Sensory processing disorder, aussi anciennement dénommé "dysfonctionnement de l'intégration sensorielle") désigne un trouble correspondant à une difficulté ou à une incapacité du système nerveux central à traiter adéquatement les flux d'informations sensorielles arrivant dans le cerveau, lequel ne peut alors fournir de réponses appropriées aux exigences de l'environnement.
Conditional mutual informationIn probability theory, particularly information theory, the conditional mutual information is, in its most basic form, the expected value of the mutual information of two random variables given the value of a third. For random variables , , and with support sets , and , we define the conditional mutual information as This may be written in terms of the expectation operator: . Thus is the expected (with respect to ) Kullback–Leibler divergence from the conditional joint distribution to the product of the conditional marginals and .
Quantum mutual informationIn quantum information theory, quantum mutual information, or von Neumann mutual information, after John von Neumann, is a measure of correlation between subsystems of quantum state. It is the quantum mechanical analog of Shannon mutual information. For simplicity, it will be assumed that all objects in the article are finite-dimensional. The definition of quantum mutual entropy is motivated by the classical case.