Trouble de l'intégration sensorielleLe trouble du traitement sensoriel (ou SPD, pour Sensory processing disorder, aussi anciennement dénommé "dysfonctionnement de l'intégration sensorielle") désigne un trouble correspondant à une difficulté ou à une incapacité du système nerveux central à traiter adéquatement les flux d'informations sensorielles arrivant dans le cerveau, lequel ne peut alors fournir de réponses appropriées aux exigences de l'environnement.
Interaction informationThe interaction information is a generalization of the mutual information for more than two variables. There are many names for interaction information, including amount of information, information correlation, co-information, and simply mutual information. Interaction information expresses the amount of information (redundancy or synergy) bound up in a set of variables, beyond that which is present in any subset of those variables. Unlike the mutual information, the interaction information can be either positive or negative.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Conditional mutual informationIn probability theory, particularly information theory, the conditional mutual information is, in its most basic form, the expected value of the mutual information of two random variables given the value of a third. For random variables , , and with support sets , and , we define the conditional mutual information as This may be written in terms of the expectation operator: . Thus is the expected (with respect to ) Kullback–Leibler divergence from the conditional joint distribution to the product of the conditional marginals and .
Cortex moteurLe cortex moteur désigne l'ensemble des aires du cortex cérébral qui participent à la planification, au contrôle et à l'exécution des mouvements volontaires des muscles du corps. D'un point de vue anatomique, le cortex moteur est situé dans la partie postérieure du lobe frontal, au niveau de la région caudale de la circonvolution frontale ascendante en avant du sillon central. Le cortex moteur est en interaction constante avec d'autres structures nerveuses impliquées dans le mouvement comme le système des ganglions de la base et le cervelet.
Système multi-agentsEn informatique, un système multi-agent (SMA) est un système composé d'un ensemble d'agents (un processus, un robot, un être humain, une fourmi etc.), actifs dans un certain environnement et interagissant selon certaines règles. Un agent est une entité caractérisée par le fait qu'elle est, au moins partiellement, autonome, ce qui exclut un pilotage centralisé du système global.
Agent logicielEn informatique, un agent ou agent logiciel (du latin agere : agir) est un logiciel qui agit de façon autonome. C'est un programme qui accomplit des tâches à la manière d'un automate et en fonction de ce que lui a demandé son auteur. Dans le contexte d'Internet, les agents intelligents sont liés au Web sémantique, dans lequel ils sont utilisés pour faire à la place des humains les recherches et les corrélations entre les résultats de ces recherches. Ceci se fait en fonction de règles prédéfinies.
Quantum mutual informationIn quantum information theory, quantum mutual information, or von Neumann mutual information, after John von Neumann, is a measure of correlation between subsystems of quantum state. It is the quantum mechanical analog of Shannon mutual information. For simplicity, it will be assumed that all objects in the article are finite-dimensional. The definition of quantum mutual entropy is motivated by the classical case.
Variation of informationIn probability theory and information theory, the variation of information or shared information distance is a measure of the distance between two clusterings (partitions of elements). It is closely related to mutual information; indeed, it is a simple linear expression involving the mutual information. Unlike the mutual information, however, the variation of information is a true metric, in that it obeys the triangle inequality. Suppose we have two partitions and of a set into disjoint subsets, namely and .
Fine motor skillFine motor skill (or dexterity) is the coordination of small muscles in movement with the eyes, hands and fingers. The complex levels of manual dexterity that humans exhibit can be related to the nervous system. Fine motor skills aid in the growth of intelligence and develop continuously throughout the stages of human development. Motor skills are movements and actions of the bone structures. Typically, they are categorised into two groups: gross motor skills and fine motor skills.