Accélération de suiteEn mathématiques, laccélération de suite est une méthode de transformation de suites ou de série numérique visant à améliorer la vitesse de convergence d'une série. Des techniques d'accélération sont souvent utilisées en analyse numérique, afin d'améliorer la rapidité de méthodes d'intégration numérique ou obtenir des identités sur des fonctions spéciales. Par exemple, la transformation d'Euler appliquée à la série hypergéométrique permet de retrouver plusieurs identités connues.
Algorithme du gradient stochastiqueL'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. À la fois l'estimation statistique et l'apprentissage automatique s'intéressent au problème de la minimisation d'une fonction objectif qui a la forme d'une somme : où le paramètre qui minimise doit être estimé. Chacune des fonctions est généralement associée avec la -ème observation de l'ensemble des données (utilisées pour l'apprentissage).
Convergence de variables aléatoiresDans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe).
Convergence uniformeLa convergence uniforme d'une suite de fonctions est une forme de convergence plus exigeante que la convergence simple. La convergence devient uniforme quand toutes les suites avancent vers leur limite respective avec une sorte de « mouvement d'ensemble ». Dans le cas de fonctions numériques d'une variable, la notion prend une forme d'« évidence » géométrique : le graphe de la fonction f se « rapproche » de celui de la limite. Soient X un ensemble, (Y, d) un espace métrique, et A un sous-ensemble de X.
Séquence (acide nucléique)vignette| Séquence d'un ARN messager faisant apparaître ses codons. La séquence d'un acide nucléique — ADN ou ARN — est la succession des nucléotides qui le constituent. Cette succession contient l'information génétique portée par ces polynucléotides, de sorte qu'on la qualifie également de séquence génétique ou parfois de séquence nucléotidique. Elle peut être déterminée par des méthodes de séquençage de l'ADN. Les séquences nucléotidiques sont conventionnellement écrites dans le sens , qui est celui dans lequel sont lues et synthétisées ces biomolécules.
Learning rateIn machine learning and statistics, the learning rate is a tuning parameter in an optimization algorithm that determines the step size at each iteration while moving toward a minimum of a loss function. Since it influences to what extent newly acquired information overrides old information, it metaphorically represents the speed at which a machine learning model "learns". In the adaptive control literature, the learning rate is commonly referred to as gain. In setting a learning rate, there is a trade-off between the rate of convergence and overshooting.
Fonction (mathématiques)vignette|Diagramme de calcul pour la fonction En mathématiques, une fonction permet de définir un résultat (le plus souvent numérique) pour chaque valeur d’un ensemble appelé domaine. Ce résultat peut être obtenu par une suite de calculs arithmétiques ou par une liste de valeurs, notamment dans le cas de relevé de mesures physiques, ou encore par d’autres procédés comme les résolutions d’équations ou les passages à la limite. Le calcul effectif du résultat ou son approximation repose éventuellement sur l’élaboration de fonction informatique.
PréconditionneurEn algèbre linéaire et en analyse numérique, un préconditionneur d'une matrice est une matrice telle que le conditionnement de est plus petit que celui de . Le préconditionnement est surtout utilisé dans les méthodes itératives pour la résolution d'un système linéaire (méthode du gradient, méthode du gradient conjugué, ...). Au lieu de résoudre, on préfère résoudre qui permet de diminuer considérablement le nombre d'itérations dans la méthode de résolution (itérative). On dit que le système est "mieux" conditionné.
Conditionnement classiquevignette|thumbtime=192|L'expérience du petit Albert. Le conditionnement classique (aussi appelé conditionnement répondant, conditionnement de type I ou conditionnement pavlovien) est proposé par Ivan Pavlov en 1903. La publication de son livre « Conditioned Reflexes: an Investigation of the Psysiological Activity of the Cerebral Cortex » en 1927 a laissé un impact majeur sur le développement de la psychologie. Cette théorie s'intéresse aux résultats d'un apprentissage dû à l'association entre des stimuli de l'environnement et les réactions inconditionnelles de l'organisme.
Théorème de convergence dominéeEn mathématiques, et plus précisément en analyse, le théorème de convergence dominée est un des théorèmes principaux de la théorie de l'intégration de Lebesgue. Soit une suite de fonctions continues à valeurs réelles ou complexes sur un intervalle de la droite réelle. On fait les deux hypothèses suivantes : la suite converge simplement vers une fonction ; il existe une fonction continue telle queAlors L'existence d'une fonction intégrable majorant toutes les fonctions f équivaut à l'intégrabilité de la fonction (la plus petite fonction majorant toutes les fonctions f).