Un réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Un réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
En apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
There are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
vignette|Schéma représentant l'architecture générale d'un transformeur. Un transformeur (ou modèle auto-attentif) est un modèle d'apprentissage profond introduit en 2017, utilisé principalement dans le domaine du traitement automatique des langues (TAL). Dès 2020, les transformeurs commencent aussi à trouver une application en matière de vision par ordinateur par la création des vision transformers (ViT).
En linguistique, l'aspect est un trait grammatical associé au prédicat (le plus souvent au verbe, mais pas exclusivement), indiquant la façon dont le procès ou l'état exprimé par le verbe est envisagé du point de vue de son développement (commencement, déroulement, achèvement, évolution globale ou au contraire moment précis de cette évolution, etc.). Selon les termes de Paul Imbs, le procès est envisagé sous l'angle de son déroulement interne, au contraire du temps, qui donne une indication sur le procès d'un point de vue extérieur à ce dernier.
En grammaire, la flexion est, dans certaines langues, un procédé d’expression des traits grammaticaux propres à celles-ci par association de morphèmes grammaticaux à une base. Au-delà de cette définition générale, on trouve chez divers auteurs des visions différentes sur la flexion. Certains auteurs entendent par flexion seulement le procédé par lequel la forme du mot est modifiée par des affixes qui font corps commun avec la base à laquelle ils sont ajoutés.