Mémoire à court termeLa mémoire à court terme (MCT) désigne en psychologie le type de mémoire qui permet de retenir et de réutiliser une quantité limitée d'informations pendant un temps relativement court, environ une demi-minute. Un grand nombre de recherches en psychologie cognitive ont cherché à déterminer les caractéristiques (capacité, durée, fonctionnement) et le rôle de la mémoire à court terme dans la cognition. Le concept de mémoire à court terme est assez ancien en psychologie scientifique.
Mémoire (psychologie)thumb|350px|Les formes et fonctions de la mémoire en sciences. En psychologie, la mémoire est la faculté de l'esprit d'enregistrer, conserver et rappeler les expériences passées. Son investigation est réalisée par différentes disciplines : psychologie cognitive, neuropsychologie, et psychanalyse. thumb|Pyramide des cinq systèmes de mémoire. Le courant cognitiviste classique regroupe habituellement sous le terme de mémoire les processus dencodage, de stockage et de récupération des représentations mentales.
Mémoire de travailLe système cognitif fonctionne en acquérant, filtrant et traitant des informations vitales, utiles, potentiellement utiles à court, moyen et long termes ; il a donc besoin de stocker (mémoriser) ces informations. Le cerveau semble pour cela disposer de systèmes différents, mais complémentaires, de mémoire à long terme et de mémoire à court terme. La notion de mémoire de travail, apparue dans les années 1970 désigne .
Mémoire à long termeEn psychologie cognitive, la mémoire à long terme (MLT) est la mémoire qui permet de retenir, de manière illimitée, une information sur des périodes de temps très longues (années). La notion de MLT est un concept utilisé dans les modèles de mémoire qui distinguent plusieurs sous-systèmes en fonction du type d'information mémorisé et de la durée de rétention. La mémoire à long terme s'oppose ainsi au registre sensoriel (ou mémoire sensorielle), à la mémoire à court terme et à la mémoire de travail.
Long short-term memoryLong short-term memory (LSTM) network is a recurrent neural network (RNN), aimed to deal with the vanishing gradient problem present in traditional RNNs. Its relative insensitivity to gap length is its advantage over other RNNs, hidden Markov models and other sequence learning methods. It aims to provide a short-term memory for RNN that can last thousands of timesteps, thus "long short-term memory".
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Géométrie symplectiqueLa géométrie symplectique est un domaine de la recherche mathématique, s'intéressant à l'origine à une formulation mathématique naturelle de la mécanique classique et développé avec une notion d'entrelacement entre la géométrie différentielle et les systèmes dynamiques, avec des applications en géométrie algébrique, en géométrie riemannienne et en géométrie de contact. Formellement, elle consiste en l'étude des 2-formes différentielles fermées non dégénérées — appelées formes symplectiques — sur les variétés différentielles.
Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
Structure de données persistanteEn informatique, une structure de données persistante est une structure de données qui préserve ses versions antérieures lorsqu'elle est modifiée ; une telle structure est immuable, car ses opérations ne la modifient pas en place (de manière visible) mais renvoient au contraire de nouvelles structures. Une structure est partiellement persistante si seule sa version la plus récente peut être modifiée, les autres n'étant accessibles qu'en lecture. La structure est dite totalement persistante si chacune de ses versions peut être lue ou modifiée.
Débit (physique)Le débit est la quantité d'une grandeur qui traverse une surface donnée par unité de temps. Il permet de quantifier un déplacement de matière ou d'énergie. Le terme débit est le plus souvent associé au débit volumique : il quantifie alors le volume qui traverse une surface, une section, par unité de temps. Le débit massique caractérise la masse qui traverse la surface par unité de temps. Il s'agit de notions centrales dans une situation d'écoulement de fluide.