Plasticité synaptiqueLa plasticité synaptique, en neurosciences, désigne la capacité des synapses à moduler, à la suite d'un événement particulier - une augmentation ou une diminution ponctuelle et significative de leur activité - l'efficacité de la transmission du signal électrique d'un neurone à l'autre et à conserver, à plus ou moins long terme, une "trace" de cette modulation. De manière schématique, l'efficacité de la transmission synaptique, voire la synapse elle-même, est maintenue et modulée par l'usage qui en est fait.
Règle de HebbLa règle de Hebb, théorie de Hebb, postulat de Hebb ou théorie des assemblées de neurones a été établie par Donald Hebb en 1949. Elle est à la fois utilisée comme hypothèse en neurosciences et comme concept dans les réseaux neuronaux en mathématiques. En 1950, un manuscrit de Sigmund Freud datant de 1895 fut publié qui attestait que cette théorie avait déjà été formulée avant Hebb. Cette théorie est souvent résumée par la formule : () C'est une règle d'apprentissage des réseaux de neurones artificiels dans le contexte de l'étude d'assemblées de neurones.
Plasticité fonction du temps d'occurrence des impulsionsLa (en Spike-timing-dependent plasticity, STDP) est un processus de modification du poids des synapses. Cette modification dépend du moment de déclenchement du potentiel d'action dans les neurones pré- et post-synaptique. Ce processus permettrait d'expliquer partiellement le développement cérébral et la mémorisation, en provoquant potentialisation à long terme (en Long-term potentiation, LTP) et dépression à long terme (en Long-term depression, LTD) des synapses.
Potentialisation à long termevignette|300x300px|La potentialisation à Long terme (PLT) est une augmentation persistante de la force synaptique après stimulation à haute fréquence d'une synapse chimique. Des études de la PLT sont souvent réalisées dans des parties de l'hippocampe, un organe important pour l'apprentissage et la mémoire. Dans ces études, les enregistrements électriques sont obtenus à partir de cellules et tracés dans un graphique comme celui-ci. Ce graphique compare la réponse à des stimuli au niveau des synapses qui ont subi PLT contre les synapses qui n'ont pas subi la PLT.
Dépression synaptique à long termeLa dépression à long terme (DLT) est « une réduction durable de l'efficacité de la transmission synaptique qui fait suite à certains types de stimulation ». Dans la dépression à long terme l'efficacité synaptique se trouve réduite. Cela est dû au fait que les éléments pré-synaptiques et post-synaptiques des neurones ont une décharge nerveuse asynchrone ou ne déchargent plus d'influx nerveux. La puissance de l'influx nerveux est influencée par la participation des récepteurs NDMA, et de leur influx calcique (Ca2+).
Fonction de vraisemblancevignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres.
Apprentissage non superviséDans le domaine informatique et de l'intelligence artificielle, l'apprentissage non supervisé désigne la situation d'apprentissage automatique où les données ne sont pas étiquetées (par exemple étiquetées comme « balle » ou « poisson »). Il s'agit donc de découvrir les structures sous-jacentes à ces données non étiquetées. Puisque les données ne sont pas étiquetées, il est impossible à l'algorithme de calculer de façon certaine un score de réussite.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Likelihood principleIn statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument.
Apprentissage de représentationsEn apprentissage automatique, l'apprentissage des caractéristiques ou apprentissage des représentations est un ensemble de techniques qui permet à un système de découvrir automatiquement les représentations nécessaires à la détection ou à la classification des caractéristiques à partir de données brutes. Cela remplace l'ingénierie manuelle des fonctionnalités et permet à une machine d'apprendre les fonctionnalités et de les utiliser pour effectuer une tâche spécifique.