Matrice d'une application linéaireEn algèbre linéaire, la matrice d'une application linéaire est une matrice de scalaires qui permet de représenter une application linéaire entre deux espaces vectoriels de dimensions finies, étant donné le choix d'une base pour chacun d'eux. Soient : E et F deux espaces vectoriels sur un corps commutatif K, de dimensions respectives n et m ; B = (e, ... , e) une base de E, C une base de F ; φ une application de E dans F.
TransforméeEn mathématiques, une transformée consiste à associer une fonction définie sur un domaine à une autre fonction, définie sur un domaine éventuellement différent. Un exemple d'application en physique consiste à étudier un signal défini sur le domaine temporel par sa transformation sur le domaine fréquentiel. Transformée d'Abel Transformée de Fourier Transformée de Fourier locale Transformée de Fourier-Mukai Transformée de Laplace Transformée bidirectionnelle de Laplace Transformée bilatérale de Laplace Trans
Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
Transformation géométriqueUne transformation géométrique est une bijection d'une partie d'un ensemble géométrique dans lui-même. L'étude de la géométrie est en grande partie l'étude de ces transformations. Les transformations géométriques peuvent être classées selon la dimension de l'ensemble géométrique : principalement les transformations planes et les transformations dans l'espace. On peut aussi classer les transformations d'après leurs éléments conservés : Jusqu'à l'avant dernière, chacune de ces classes contient la précédente.
Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Transformations de LorentzCet article présente les transformations de Lorentz sous un aspect technique. Le lecteur désireux d'obtenir des informations physiques plus générales à ce sujet pourra se référer à l'article Relativité restreinte. thumb|Hendrik Lorentz en 1916. Les transformations de Lorentz sont des transformations linéaires des coordonnées d'un point de l'espace-temps de Minkowski à quatre dimensions.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Application affineEn géométrie, une application affine est une application entre deux espaces affines qui est compatible avec leur structure. Cette notion généralise celle de fonction affine de R dans R (), sous la forme , où est une application linéaire et est un point. Une bijection affine (qui est un cas particulier de transformation géométrique) envoie les sous-espaces affines, comme les points, les droites ou les plans, sur le même type d'objet géométrique, tout en préservant la notion de parallélisme.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.