ConnectomeLe connectome est un plan complet des connexions neuronales d'un cerveau. La production et l'étude des connectomes est la connectomique. À l'échelle microscopique, elle décrit la disposition des neurones et des synapses dans tout ou partie du système nerveux d'un organisme. À l'échelle "macroscopique", elle étudie la connectivité fonctionnelle et structurelle entre toutes les aires corticales et les structures sous-corticales.
Medical image computingMedical image computing (MIC) is an interdisciplinary field at the intersection of computer science, information engineering, electrical engineering, physics, mathematics and medicine. This field develops computational and mathematical methods for solving problems pertaining to medical images and their use for biomedical research and clinical care. The main goal of MIC is to extract clinically relevant information or knowledge from medical images.
ConnectomiqueLa connectomique est l'établissement et l'étude du connectome, c'est-à-dire de l'ensemble des connexions neuronales du cerveau. La connectomique est la production et l'étude des connectomes : des cartes complètes des connexions au sein du système nerveux d'un organisme. Plus généralement, on peut considérer qu'il s'agit de l'étude des schémas de câblage neuronaux, en mettant l'accent sur la façon dont la connectivité structurelle, les synapses individuelles, la morphologie et l'ultrastructure cellulaires contribuent à la constitution d'un réseau.
IRM de diffusionL’IRM de diffusion est une technique basée sur l' (IRM). Elle permet de calculer en chaque point de l'image la distribution des directions de diffusion des molécules d'eau. Cette diffusion étant contrainte par les tissus environnants, cette modalité d'imagerie permet d'obtenir indirectement la position, l’orientation et l’anisotropie des structures fibreuses, notamment les faisceaux de matière blanche du cerveau. Le signal de résonance magnétique provient le plus souvent en IRM des noyaux d’hydrogène (protons).
Cartographie du cerveauLa cartographie du cerveau est un ensemble de techniques des neurosciences dédiées à la création de représentations spatiales des quantités ou des propriétés biologiques du cerveau humain ou non-humain. La cartographie du cerveau est en outre définie par la Société pour la cartographie et le traitement du cerveau (Society for Brain Mapping and Therapeutics - SBMT) comme l'étude de l'anatomie et du fonctionnement du cerveau et de la moelle épinière grâce à l'utilisation de l' (intra-opératoire, microscopique, endoscopique et l'imagerie multi-modalité), l’utilisation de l'immunohistochimie, la génétique moléculaire et l’optogénétique, les cellules souches et la biologie cellulaire, l'ingénierie (matériel, électrique et biomédical), la neurophysiologie et les nanotechnologies.
Computational anatomyComputational anatomy is an interdisciplinary field of biology focused on quantitative investigation and modelling of anatomical shapes variability. It involves the development and application of mathematical, statistical and data-analytical methods for modelling and simulation of biological structures. The field is broadly defined and includes foundations in anatomy, applied mathematics and pure mathematics, machine learning, computational mechanics, computational science, biological imaging, neuroscience, physics, probability, and statistics; it also has strong connections with fluid mechanics and geometric mechanics.
Voxel-based morphometryVoxel-based morphometry is a computational approach to neuroanatomy that measures differences in local concentrations of brain tissue, through a voxel-wise comparison of multiple brain images. In traditional morphometry, volume of the whole brain or its subparts is measured by drawing regions of interest (ROIs) on images from brain scanning and calculating the volume enclosed. However, this is time consuming and can only provide measures of rather large areas. Smaller differences in volume may be overlooked.
Terme (logique)Un terme est une expression de base du calcul des prédicats, de l'algèbre, notamment de l'algèbre universelle, et du calcul formel, des systèmes de réécriture et de l'unification. C'est l'objet produit par une analyse syntaxique. Sa principale caractéristique est d'être homogène (il n'y a que des opérations de base et pas d'opérations logiques) et de décrire l'agencement des opérations de base. Un terme est parfois appelé une formule du premier ordre.
Admissible ruleIn logic, a rule of inference is admissible in a formal system if the set of theorems of the system does not change when that rule is added to the existing rules of the system. In other words, every formula that can be derived using that rule is already derivable without that rule, so, in a sense, it is redundant. The concept of an admissible rule was introduced by Paul Lorenzen (1955). Admissibility has been systematically studied only in the case of structural (i.e.
Robustesse (statistiques)En statistiques, la robustesse d'un estimateur est sa capacité à ne pas être perturbé par une modification dans une petite partie des données ou dans les paramètres du modèle choisi pour l'estimation. Ricardo A. Maronna, R. Douglas Martin et Victor J. Yohai; Robust Statistics - Theory and Methods, Wiley Series in Probability and Statistics (2006). Dagnelie P.; Statistique théorique et appliquée. Tome 2 : Inférence statistique à une et à deux dimensions, Paris et Bruxelles (2006), De Boeck et Larcier.