Machine à vecteurs de supportLes machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires. Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Tchervonenkis.
Éminence ganglionnaireL'éminence ganglionnaire (EG) est une structure transitoire dans le développement du système nerveux qui guide la migration des cellules et des axones. Elle est présente dans les stades embryonnaires et fœtaux du développement neural que l'on trouve entre le thalamus et le noyau caudé. L'éminence est divisée en trois régions de la zone ventriculaire ventrale du télencéphale (une éminence latérale, médiale et caudale), où elles facilitent la migration cellulaire tangentielle au cours du développement embryonnaire.
Model selectionModel selection is the task of selecting a model from among various candidates on the basis of performance criterion to choose the best one. In the context of learning, this may be the selection of a statistical model from a set of candidate models, given data. In the simplest cases, a pre-existing set of data is considered. However, the task can also involve the design of experiments such that the data collected is well-suited to the problem of model selection.
Feature (machine learning)In machine learning and pattern recognition, a feature is an individual measurable property or characteristic of a phenomenon. Choosing informative, discriminating and independent features is a crucial element of effective algorithms in pattern recognition, classification and regression. Features are usually numeric, but structural features such as strings and graphs are used in syntactic pattern recognition. The concept of "feature" is related to that of explanatory variable used in statistical techniques such as linear regression.
Convenience samplingConvenience sampling (also known as grab sampling, accidental sampling, or opportunity sampling) is a type of non-probability sampling that involves the sample being drawn from that part of the population that is close to hand. This type of sampling is most useful for pilot testing. Convenience sampling is not often recommended for research due to the possibility of sampling error and lack of representation of the population. But it can be handy depending on the situation. In some situations, convenience sampling is the only possible option.
Sampling errorIn statistics, sampling errors are incurred when the statistical characteristics of a population are estimated from a subset, or sample, of that population. It can produced biased results. Since the sample does not include all members of the population, statistics of the sample (often known as estimators), such as means and quartiles, generally differ from the statistics of the entire population (known as parameters). The difference between the sample statistic and population parameter is considered the sampling error.
ReelineLa reeline est une protéine qui se trouve principalement dans le cerveau, mais aussi dans la moelle épinière, dans le sang et dans d'autres organes et tissus. Son gène est RELN, situé sur le chromosome 7 humain. Le nom est dû à la démarche titubante (reeling gait) des souris , dont on a découvert par la suite qu'elles présentaient une déficience en cette protéine cérébrale et étaient homozygotes pour la mutation du gène RELN, codant sa synthèse. Le principal phénotype associé à la perte de fonction reeline est une grossière inversion des couches corticales.
LissencéphalieLa désigne un ensemble de maladies qui ont en commun la disparition de l’aspect habituel du cortex cérébral. Le cortex cérébral est habituellement traversé par des sillons lui donnant un aspect de « champ labouré ». Certains de ces sillons ont un aspect plus important et sont appelés des scissures. Le processus de formation des sillons et des scissures s’appelle la gyration. La lissencéphalie est donc une anomalie de la gyration : soit il n’existe plus du tout de sillon et on parle d’agyrie, soit il existe encore quelques sillons on parle de pachygyrie.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Méthode des k plus proches voisinsEn intelligence artificielle, plus précisément en apprentissage automatique, la méthode des k plus proches voisins est une méthode d’apprentissage supervisé. En abrégé KPPV ou k-PPV en français, ou plus fréquemment k-NN ou KNN, de l'anglais k-nearest neighbors. Dans ce cadre, on dispose d’une base de données d'apprentissage constituée de N couples « entrée-sortie ». Pour estimer la sortie associée à une nouvelle entrée x, la méthode des k plus proches voisins consiste à prendre en compte (de façon identique) les k échantillons d'apprentissage dont l’entrée est la plus proche de la nouvelle entrée x, selon une distance à définir.