Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Apprentissage non superviséDans le domaine informatique et de l'intelligence artificielle, l'apprentissage non supervisé désigne la situation d'apprentissage automatique où les données ne sont pas étiquetées (par exemple étiquetées comme « balle » ou « poisson »). Il s'agit donc de découvrir les structures sous-jacentes à ces données non étiquetées. Puisque les données ne sont pas étiquetées, il est impossible à l'algorithme de calculer de façon certaine un score de réussite.
Crête neuraleLa crête neurale ou plaque du toit désigne, chez l'embryon des craniates, une population de cellules transitoires et multipotentes générées à partir de la région la plus dorsale du tube neural. Ces cellules migrent dans l’ensemble de l'embryon au cours du développement et donnent naissance à une grande diversité de types cellulaires chez l'adulte.
Théorie des perturbationsLa théorie des perturbations est un domaine des mathématiques, qui consiste à étudier les contextes où il est possible de trouver une solution approchée à une équation en partant de la solution d'un problème plus simple. Plus précisément, on cherche une solution approchée à une équation (E) (dépendante d'un paramètre λ), sachant que la solution de l'équation (E) (correspondant à la valeur λ=0) est connue exactement. L'équation mathématique (E) peut être par exemple une équation algébrique ou une équation différentielle.