Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Équations de Maxwellvignette|Plaque représentant les équations de Maxwell au pied de la statue en hommage à James Clerk Maxwell d'Edimbourg. Les équations de Maxwell, aussi appelées équations de Maxwell-Lorentz, sont des lois fondamentales de la physique. Elles constituent, avec l'expression de la force électromagnétique de Lorentz, les postulats de base de l'électromagnétisme. Ces équations traduisent sous forme locale différents théorèmes (Gauss, Ampère, Faraday) qui régissaient l'électromagnétisme avant que Maxwell ne les réunisse sous forme d'équations intégrales.
Simulation de phénomènesLa simulation de phénomènes est un outil utilisé dans le domaine de la recherche et du développement. Elle permet d'étudier les réactions d'un système à différentes contraintes pour en déduire les résultats recherchés en se passant d'expérimentation. Les systèmes technologiques (infrastructures, véhicules, réseaux de communication, de transport ou d'énergie) sont soumis à différentes contraintes et actions. Le moyen le plus simple d'étudier leurs réactions serait d'expérimenter, c'est-à-dire d'exercer l'action souhaitée sur l'élément en cause pour observer ou mesurer le résultat.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Objectif photographiquevignette|Gauche : 1:2.8/50 MacroCentre : 1:4-5.6/70-300 Droite : 1:4-5.6/10-20 Un objectif photographique est un système optique convergent formé de plusieurs lentilles, et éventuellement de miroirs, donnant des images réelles sur la surface sensible de l'appareil photographique. Un objectif se caractérise en premier lieu par sa distance focale (ou sa plage de focale pour un zoom), son ouverture maximale, et le format maximum de la surface sensible (film ou capteur) avec lequel il est utilisable.
Champ électriquethumb|Champ électrique associé à son propagateur qu'est le photon. right|thumb|Michael Faraday introduisit la notion de champ électrique. En physique, le champ électrique est le champ vectoriel créé par des particules électriquement chargées. Plus précisément, des particules chargées modifient les propriétés locales de l'espace, ce que traduit justement la notion de champ. Si une autre charge se trouve dans ce champ, elle subira l'action de la force électrique exercée à distance par la particule : le champ électrique est en quelque sorte le "médiateur" de cette action à distance.
MatièreEn physique, la matière est ce qui compose tout corps (objet ayant une réalité spatiale et massique). C'est-à-dire plus simplement une substance matérielle et donc occupe de l'espace. Les quatre états les plus communs sont l'état solide, l'état liquide, l'état gazeux et l'état plasma. Réciproquement, en physique, tout ce qui a une masse est de la matière. La matière ordinaire qui nous entoure est formée principalement de baryons et constitue la matière baryonique.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.