Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Application linéaire par morceauxEn mathématiques, une application linéaire par morceaux est une application définie sur un espace topologique composé de facettes affines, à valeurs dans un espace affine et dont les restrictions à chaque facette sont induites par des applications affines. Une telle application est en général supposée continue. Un cas particulier d'application linéaire par morceaux est celui d'une fonction affine par morceaux, définie sur une réunion d'intervalles réels et à valeurs réelles, telle que la restriction à chacun de ces intervalles est donnée par une expression affine.
Fonction transcendanteEn mathématiques, une fonction ou une série formelle est dite transcendante si elle n'est pas algébrique, c'est-à-dire si elle n'est pas solution d'une équation polynomiale à coefficients polynomiaux par rapport à ses arguments. Cette notion est donc, au même titre que celle de nombre transcendant, un cas particulier de celle d'élément transcendant d'une algèbre sur un anneau commutatif, l'algèbre et l'anneau considérés étant ici soit les fonctions de certaines variables (à valeurs dans un anneau commutatif R) et les fonctions polynomiales en ces variables (à coefficients dans R), soit les séries formelles et les polynômes (en une ou plusieurs indéterminées).
Application lipschitzienneEn analyse mathématique, une application lipschitzienne (du nom de Rudolf Lipschitz) est une application possédant une certaine propriété de régularité qui est plus forte que la continuité. Intuitivement, c'est une fonction qui est limitée dans sa manière d'évoluer. Tout segment reliant deux points du graphe d'une telle fonction aura une pente inférieure, en valeur absolue, à une constante appelée constante de Lipschitz. Les fonctions lipschitziennes sont un cas particulier de fonctions höldériennes.
Neurone formelthumb|Représentation d'un neurone formel (ou logique). Un neurone formel, parfois appelé neurone de McCulloch-Pitts, est une représentation mathématique et informatique d'un neurone biologique. Le neurone formel possède généralement plusieurs entrées et une sortie qui correspondent respectivement aux dendrites et au cône d'émergence du neurone biologique (point de départ de l'axone). Les actions excitatrices et inhibitrices des synapses sont représentées, la plupart du temps, par des coefficients numériques (les poids synaptiques) associés aux entrées.
Fonction d'erreurthumb|right|upright=1.4|Construction de la fonction d'erreur réelle. En mathématiques, la fonction d'erreur (aussi appelée fonction d'erreur de Gauss) est une fonction entière utilisée en analyse. Cette fonction se note erf et fait partie des fonctions spéciales. Elle est définie par : La fonction erf intervient régulièrement dans le domaine des probabilités et statistiques, ainsi que dans les problèmes de diffusion (de la chaleur ou de la matière).
Fonction thêtaEn mathématiques, on appelle fonctions thêta certaines fonctions spéciales d'une ou de plusieurs variables complexes. Elles apparaissent dans plusieurs domaines, comme l'étude des variétés abéliennes, des espaces de modules, et les formes quadratiques. Elles ont aussi des applications à la théorie des solitons. Leurs généralisations en algèbre extérieure apparaissent dans la théorie quantique des champs, plus précisément dans la théorie des cordes et des D-branes.
Redresseur (réseaux neuronaux)vignette|Graphique de la fonction Unité Linéaire Rectifiée En mathématiques, la fonction Unité Linéaire Rectifiée (ou ReLU pour Rectified Linear Unit) est définie par : pour tout réel Elle est fréquemment utilisée comme fonction d'activation dans le contexte du réseau de neurones artificiels pour sa simplicité de calcul, en particulier de sa dérivée. Un désavantage de la fonction ReLU est que sa dérivée devient nulle lorsque l'entrée est négative ce qui peut empêcher la rétropropagation du gradient.
Régularité par morceauxEn mathématiques, les énoncés de certaines propriétés d'analyse et résultats de convergence se réfèrent à des fonctions vérifiant des hypothèses telles que continues par morceaux, dérivables par morceaux Ces fonctions sont regroupées par classes de régularité qui sont autant d'espaces vectoriels emboîtés, appelés « classe C par morceaux » et notés C. vignette|Cette fonction n'est pas continue sur R. En revanche, elle y est continue par morceaux. Une fonction f est continue par morceaux sur le segment [a, b] s’il existe une subdivision σ : a = a0 < .