La règle de Hebb, théorie de Hebb, postulat de Hebb ou théorie des assemblées de neurones a été établie par Donald Hebb en 1949. Elle est à la fois utilisée comme hypothèse en neurosciences et comme concept dans les réseaux neuronaux en mathématiques. En 1950, un manuscrit de Sigmund Freud datant de 1895 fut publié qui attestait que cette théorie avait déjà été formulée avant Hebb.
Cette théorie est souvent résumée par la formule : ()
C'est une règle d'apprentissage des réseaux de neurones artificiels dans le contexte de l'étude d'assemblées de neurones.
Elle est basée sur une hypothèse scientifique en neurosciences. Elle décrit les changements d'adaptation neuronale dans le cerveau ou dans un réseau de neurones pendant un processus d'apprentissage. Elle décrit un mécanisme basique de plasticité synaptique dans laquelle l'efficacité synaptique augmente lors d'une stimulation présynaptique répétée et persistante de la cellule postsynaptique.
Cette règle suggère que lorsque deux neurones sont excités conjointement, il se crée ou renforce un lien les unissant.
Cette théorie tente d'expliquer l'apprentissage associatif, dans lequel une association est faite par la répétition de deux . La répétition d'un stimulus seul entraîne le rappel de l'autre stimulus ensuite (voir apprentissage pavlovien).
La théorie d'Hebb s'intéresse à la manière dont les neurones se connectent entre eux pour former des engrammes.
Gordon Allport propose des hypothèses complémentaires :
Le travail du prix Nobel Eric Kandel a fourni une preuve de l'implication des mécanismes d'apprentissages de Hebb dans les synapses du gastropode marin Aplysia californica.
Cependant, il est beaucoup plus difficile de vérifier ces théories sur les systèmes nerveux centraux des vertébrés.
Le phénomène de potentialisation à long terme, un équivalent biologique de la synapse de Hebb, joue un grand rôle dans les théories neurobiologiques de la mémoire.
La règle de Hebb apparaît au moins en deux endroits de l’œuvre de Freud : dans Projet pour une explication physiologique des phénomènes psychiques (1895-1896)
et dans Au-delà du principe de plaisir (1920).
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
This course explains the mathematical and computational models that are used in the field of theoretical neuroscience to analyze the collective dynamics of thousands of interacting neurons.
La plasticité synaptique, en neurosciences, désigne la capacité des synapses à moduler, à la suite d'un événement particulier - une augmentation ou une diminution ponctuelle et significative de leur activité - l'efficacité de la transmission du signal électrique d'un neurone à l'autre et à conserver, à plus ou moins long terme, une "trace" de cette modulation. De manière schématique, l'efficacité de la transmission synaptique, voire la synapse elle-même, est maintenue et modulée par l'usage qui en est fait.
La dépression à long terme (DLT) est « une réduction durable de l'efficacité de la transmission synaptique qui fait suite à certains types de stimulation ». Dans la dépression à long terme l'efficacité synaptique se trouve réduite. Cela est dû au fait que les éléments pré-synaptiques et post-synaptiques des neurones ont une décharge nerveuse asynchrone ou ne déchargent plus d'influx nerveux. La puissance de l'influx nerveux est influencée par la participation des récepteurs NDMA, et de leur influx calcique (Ca2+).
En neurosciences, un réseau de neurones correspond, schématiquement : Soit à un nombre restreint de différents neurones interconnectés, qui ont une fonction précise, comme le ganglion stomatogastrique qui contrôle l'activité des muscles de l'estomac des crustacés. Soit à un grand nombre de neurones similaires interconnectés, qui ont des fonctions plus cognitives, comme les réseaux corticaux qui permettent entre autres la catégorisation.
Couvre l'informatique neuromorphe, les défis dans l'informatique ternaire et binaire, les simulations matérielles du cerveau, et les nouveaux matériaux pour les cellules cérébrales artificielles.
Explore différentes formes de plasticité synaptique et les mécanismes qui les sous-tendent, en mettant l'accent sur le rôle du calcium dans l'induction et le maintien des changements plastiques.
Recent advances in machine learning have contributed to the emergence of powerful models for how humans and other animals reason and behave. In this course we will compare and contrast how such brain
The course introduces students to a synthesis of modern neuroscience and state-of-the-art data management, modelling and computing technologies with a focus on the biophysical level.
In this course we study mathematical models of neurons and neuronal networks in the context of biology and establish links to models of cognition. The focus is on brain dynamics approximated by determ
The lateral amygdala (LA) encodes fear memories by potentiating sensory inputs associated with threats and, in the process, recruits 10-30% of its neurons per fear memory engram. However, how the local network within the LA processes this information and w ...
Nature Portfolio2024
, , , , , , , , , , ,
Synaptic plasticity underlies the brain’s ability to learn and adapt. This process is often studied in small groups of neurons in vitro or indirectly through its effects on behavior in vivo. Due to the limitations of available experimental techniques, inve ...
Information derived from experiences is incorporated into the brain as changes to ensembles of cells, termed engram cells, which allow memory storage and recall. The mechanism by which those changes hold specific information is unclear. Here, we test the h ...