Matrix splittingIn the mathematical discipline of numerical linear algebra, a matrix splitting is an expression which represents a given matrix as a sum or difference of matrices. Many iterative methods (for example, for systems of differential equations) depend upon the direct solution of matrix equations involving matrices more general than tridiagonal matrices. These matrix equations can often be solved directly and efficiently when written as a matrix splitting. The technique was devised by Richard S. Varga in 1960.
Loi du χ² non centréeEn théorie des probabilités et en statistique, la loi du χ non centrée est une loi de probabilité qui généralise la loi du χ2. Cette loi apparait lors de tests statistiques, par exemple pour le maximum de vraisemblance. Soit X, k variables aléatoires indépendantes de loi normale de moyennes et variances . Alors la variable aléatoire suit une loi du χ non centrée. Elle dépend de deux paramètres : k qui spécifie le nombre de degrés de liberté (c'est-à-dire le nombre de X), et λ qui est en lien avec la moyenne des variables X par la formule : est parfois appelé le paramètre de décentralisation.
Loi géométriqueEn théorie des probabilités et en statistique, la loi géométrique désigne, selon la convention choisie, l'une des deux lois de probabilité suivantes : la loi du nombre X d'épreuves de Bernoulli indépendantes de probabilité de succès p ∈ ]0,1[ (ou q = 1 – p d'échec) nécessaire pour obtenir le premier succès. X est la variable aléatoire donnant le rang du premier succès. Le support de la loi est alors {1, 2, 3, ...}. La loi du nombre Y = X – 1 d'échecs avant le premier succès. Le support de la loi est alors {0, 1, 2, 3, .
Règle de d'Alembertvignette|Jean Le Rond d'Alembert, mathématicien français. La règle de d'Alembert (ou critère de d'Alembert), doit son nom au mathématicien français Jean le Rond d'Alembert. C'est un test de convergence pour une série à termes positifs. Dans certains cas, elle permet d'établir la convergence absolue d'une série à termes complexes ou vectoriels, ou au contraire sa divergence. Soit (u) une suite de réels strictement positifs. On note et les limites inférieure et supérieure des quotients successifs : Si , alors la série de terme général u converge.
Résolution de problèmevignette|Résolution d'un problème mathématique. La résolution de problème est le processus d'identification puis de mise en œuvre d'une solution à un problème. Analyse de cause racine (ACR, Root cause analysis) : cette démarche part du constat qu'il est plus judicieux de traiter les causes d'un problème que d'en traiter les symptômes immédiats. Puisqu'analyser les causes d'un problème permet d'en déterminer une solution définitive, et donc, empêcher qu'il ne se reproduise de nouveau.
Algorithme du gradient stochastiqueL'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. À la fois l'estimation statistique et l'apprentissage automatique s'intéressent au problème de la minimisation d'une fonction objectif qui a la forme d'une somme : où le paramètre qui minimise doit être estimé. Chacune des fonctions est généralement associée avec la -ème observation de l'ensemble des données (utilisées pour l'apprentissage).
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.
RésultantEn mathématiques, le résultant, ou déterminant de Sylvester, est une notion qui s'applique à deux polynômes. Elle est utilisée en théorie de Galois, en théorie algébrique des nombres, en géométrie algébrique et dans bien d'autres domaines utilisant les polynômes. Le résultant de deux polynômes est un scalaire qui est nul si, et seulement si, les deux polynômes ont un facteur commun. Il peut être calculé à partir des coefficients des polynômes à l'aide d'un déterminant.
Algorithme du gradientLalgorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction.
Algorithme d'Euclide étenduEn mathématiques, l'algorithme d'Euclide étendu est une variante de l'algorithme d'Euclide. À partir de deux entiers a et b, il calcule non seulement leur plus grand commun diviseur (PGCD), mais aussi un de leurs couples de coefficients de Bézout, c'est-à-dire deux entiers u et v tels que au + bv = PGCD(a, b). Quand a et b sont premiers entre eux, u est alors l'inverse pour la multiplication de a modulo b (et v est de la même façon l'inverse modulaire de b, modulo a), ce qui est un cas particulièrement utile.