MOOC

Neurorobotics

Description

This course explains the mathematical and computational models that are used in the field of neurorobotics to answer these questions. The core of understanding intelligence and behavior may lie in interplay between our senses, the millions of neurons in our brain and our actions in the environment. In 6 weeks you will learn: By the end of the course, you will be able to: Build model animals that exhibit simple behaviors like moving towards or away from a stimulus, understand how sensory representations are learned from structured sensory input, understand how optimal actions can be selected, based on an animals prior experience, understand simple mathematical models of reinforcement learning, understand simple models of how simple animals or robots can behave autonomously in a dynamic environment.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de ce MOOC (51)
Tutoriel neurorobotiqueMOOC: Neuro Robotics
Couvre la plateforme neurorobotique, la création d'expériences, l'édition cérébrale et le contrôle de simulation.
Présentation : NeuroboticsMOOC: Neuro Robotics
Introduit Neurobotics, une étude combinant les neurosciences, la robotique et l’IA pour comprendre les systèmes neuronaux autonomes incarnés.
Configurations de poids des connexions capteur-moteur dans les véhicules BraitenbergMOOC: Neuro Robotics
Explore comment les configurations de poids des connexions capteur-moteur dans les véhicules Braitenberg déterminent leur comportement et introduit le concept de la fonction d'activation G de X.
Solution de poids et de connexionsMOOC: Neuro Robotics
Couvre la solution des poids et des connexions pour différents véhicules et leurs comportements qui en résultent.
Organes biologiques et non biologiquesMOOC: Neuro Robotics
Explore les composants des robots neuronaux et les compare à des animaux réels.
Afficher plus
Concepts associés (136)
Règle de Hebb
La règle de Hebb, théorie de Hebb, postulat de Hebb ou théorie des assemblées de neurones a été établie par Donald Hebb en 1949. Elle est à la fois utilisée comme hypothèse en neurosciences et comme concept dans les réseaux neuronaux en mathématiques. En 1950, un manuscrit de Sigmund Freud datant de 1895 fut publié qui attestait que cette théorie avait déjà été formulée avant Hebb. Cette théorie est souvent résumée par la formule : () C'est une règle d'apprentissage des réseaux de neurones artificiels dans le contexte de l'étude d'assemblées de neurones.
Apprentissage par renforcement
En intelligence artificielle, plus précisément en apprentissage automatique, l'apprentissage par renforcement consiste, pour un agent autonome ( robot, agent conversationnel, personnage dans un jeu vidéo), à apprendre les actions à prendre, à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps. L'agent est plongé au sein d'un environnement et prend ses décisions en fonction de son état courant. En retour, l'environnement procure à l'agent une récompense, qui peut être positive ou négative.
Réseau de neurones artificiels
Un réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.
Afficher plus
Cours associés (34)
NX-450: Computational neurosciences: biophysics
The course introduces students to a synthesis of modern neuroscience and state-of-the-art data management, modelling and computing technologies with a focus on the biophysical level.
NX-421: Neural signals and signal processing
Understanding, processing, and analysis of signals and images obtained from the central and peripheral nervous system
CS-456: Artificial neural networks/reinforcement learning
Since 2010 approaches in deep learning have revolutionized fields as diverse as computer vision, machine learning, or artificial intelligence. This course gives a systematic introduction into influent
Afficher plus
Publications associées (1 000)

Fear learning induces synaptic potentiation between engram neurons in the rat lateral amygdala

Henry Markram, Rodrigo de Campos Perin

The lateral amygdala (LA) encodes fear memories by potentiating sensory inputs associated with threats and, in the process, recruits 10-30% of its neurons per fear memory engram. However, how the local network within the LA processes this information and w ...
Nature Portfolio2024

Task-driven neural network models predict neural dynamics of proprioception: Neural network model weights

Alexander Mathis, Alberto Silvio Chiappa, Alessandro Marin Vargas, Axel Bisi

Proprioception tells the brain the state of the body based on distributed sensors in the body. However, the principles that govern proprioceptive processing from those distributed sensors are poorly understood. Here, we employ a task-driven neural network ...
EPFL Infoscience2024

Non-invasive stimulation of the human striatum disrupts reinforcement learning of motor skills

Friedhelm Christoph Hummel, Takuya Morishita, Pierre Theopistos Vassiliadis, Elena Beanato, Esra Neufeld, Fabienne Windel, Maximilian Jonas Wessel, Traian Popa, Julie Duqué

Reinforcement feedback can improve motor learning, but the underlying brain mechanisms remain underexplored. In particular, the causal contribution of specific patterns of oscillatory activity within the human striatum is unknown. To address this question, ...
Nature Portfolio2024
Afficher plus