LogitLa fonction logit est une fonction mathématique utilisée principalement en statistiques et pour la régression logistique, en intelligence artificielle (réseaux neuronaux), en inférence bayésienne pour transformer les probabilités sur [0,1] en évidence sur R afin d'une part d'éviter des renormalisations permanentes, et d'autre part de rendre additive la formule de Bayes pour faciliter les calculs. Son expression est où p est défini sur ]0, 1[ La base du logarithme utilisé est sans importance, tant que celle-ci est supérieure à 1.
Fonction d'erreurthumb|right|upright=1.4|Construction de la fonction d'erreur réelle. En mathématiques, la fonction d'erreur (aussi appelée fonction d'erreur de Gauss) est une fonction entière utilisée en analyse. Cette fonction se note erf et fait partie des fonctions spéciales. Elle est définie par : La fonction erf intervient régulièrement dans le domaine des probabilités et statistiques, ainsi que dans les problèmes de diffusion (de la chaleur ou de la matière).
Hill equation (biochemistry)In biochemistry and pharmacology, the Hill equation refers to two closely related equations that reflect the binding of ligands to macromolecules, as a function of the ligand concentration. A ligand is "a substance that forms a complex with a biomolecule to serve a biological purpose" (ligand definition), and a macromolecule is a very large molecule, such as a protein, with a complex structure of components (macromolecule definition). Protein-ligand binding typically changes the structure of the target protein, thereby changing its function in a cell.
Fonction hyperboliqueEn mathématiques, on appelle fonctions hyperboliques les fonctions cosinus hyperbolique, sinus hyperbolique et tangente hyperbolique. Les noms « sinus », « cosinus » et « tangente » proviennent de leur ressemblance avec les fonctions trigonométriques (dites « circulaires » car en relation avec le cercle unité x + y = 1) et le terme « hyperbolique » provient de leur relation avec l'hyperbole d'équation x – y = 1. Elles sont utilisées en analyse pour le calcul intégral, la résolution des équations différentielles mais aussi en géométrie hyperbolique.
Vanishing gradient problemIn machine learning, the vanishing gradient problem is encountered when training artificial neural networks with gradient-based learning methods and backpropagation. In such methods, during each iteration of training each of the neural networks weights receives an update proportional to the partial derivative of the error function with respect to the current weight. The problem is that in some cases, the gradient will be vanishingly small, effectively preventing the weight from changing its value.
Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.