Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Sensory-motor couplingSensory-motor coupling is the coupling or integration of the sensory system and motor system. Sensorimotor integration is not a static process. For a given stimulus, there is no one single motor command. "Neural responses at almost every stage of a sensorimotor pathway are modified at short and long timescales by biophysical and synaptic processes, recurrent and feedback connections, and learning, as well as many other internal and external variables".
DyspraxieLa dyspraxie, aussi appelée trouble développemental de la coordination (TDC), trouble d’acquisition de la coordination (TAC) ou dyspraxie développementale (DD), est un trouble neurologique chronique qui apparaît dès l'enfance. Ce trouble spécifique des apprentissages (TSAp) (terminologie APA, 2013) se caractérise par une affection de la planification des mouvements et de la coordination en raison d'une altération de la communication entre le cerveau et le corps.
Planification motriceLa planification motrice est un processus cognitif et psychomoteur, permettant d’élaborer un mouvement volontaire et de l’organiser en séquences avant de l’exécuter . Pour ce faire, avant chaque mouvement, le cerveau établit un plan moteur composé d’images mentales qui s’enchaînent . Cela est possible parce qu’il s’agit d’un automatisme qui anticipe le résultat de chaque mouvement. Lors de l’étape suivante, le cerveau spécifie les paramètres du mouvement, c’est-à-dire les éléments spatio-temporels (direction, force, amplitude, vitesse) et visuo-spatiaux qui orienteront l’action .
Récepteur (cellule)thumb|Cônes et bâtonnets de la rétine en microscopie électronique (fausses couleurs). Les neurones récepteurs (ou sensoriels) constituent le premier niveau cellulaire du système nerveux de la perception. Ils transduisent des signaux physiques (lumière, son, température, pression, tension mécanique...) en signaux chimiques (neurotransmetteurs) transmis à un neurone postsynaptique qui convertira le message en signal nerveux transmis sous forme de trains de potentiel d'action. photorécepteur (vision) bâtonnet
Intégration sensorielleL’intégration sensorielle fait référence à plusieurs concepts différents. En neurophysiologie, l’intégration sensorielle se réfère au processus neurologique impliquant la réception, la modulation et l’intégration des informations sensorielles. Le système nerveux transforme les sensations en perceptions en organisant les informations sensorielles provenant du corps et de l’environnement (fournies par les différents systèmes sensoriels : tactile, auditif, visuel, gustatif/olfactif, vestibulaire, proprioceptif) afin d’utiliser efficacement le corps.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
Contrôle moteurEn neurosciences, le contrôle moteur est la capacité de faire des ajustements posturaux dynamiques et de diriger le corps et les membres dans le but de faire un mouvement déterminé. Le mouvement volontaire est initié par le cortex moteur primaire et le cortex prémoteur. Le signal est ensuite transmis aux circuits du tronc cérébral et de la moelle épinière qui activent les muscles squelettiques qui, en se contractant, produisent un mouvement. Le mouvement produit renvoie des informations proprioceptives au système nerveux central (SNC).