Matrice par blocsvignette|Un matrice présente une structure par blocs si l'on peut isoler les termes non nuls dans des sous-matrices (ici la structure « diagonale par blocs » d'une réduite de Jordan). On appelle matrice par blocs une matrice divisée en blocs à partir d'un groupement quelconque de termes contigus de sa diagonale. Chaque bloc étant indexé comme on indicerait les éléments d'une matrice, la somme et le produit de deux matrices partitionnées suivant les mêmes tailles de bloc, s'obtiennent avec les mêmes règles formelles que celles des composantes (mais en veillant à l'ordre des facteurs dans les produits matriciels!).
FactorisationEn mathématiques, la factorisation consiste à écrire une expression algébrique (notamment une somme), un nombre, une matrice sous la forme d'un produit. Cette transformation peut se faire suivant différentes techniques détaillées ci-dessous. Les enjeux de la factorisation sont très divers : à un niveau élémentaire, le but peut être de ramener la résolution d'une équation à celle d'une équation produit-nul, ou la simplification d'une écriture fractionnaire ; à un niveau intermédiaire, la difficulté algorithmique présumée de la factorisation des nombres entiers en produit de facteurs premiers est à la base de la fiabilité du cryptosystème RSA.
Calcul numérique d'une intégraleEn analyse numérique, il existe une vaste famille d’algorithmes dont le but principal est d’estimer la valeur numérique de l’intégrale définie sur un domaine particulier pour une fonction donnée (par exemple l’intégrale d’une fonction d’une variable sur un intervalle). Ces techniques procèdent en trois phases distinctes : Décomposition du domaine en morceaux (un intervalle en sous-intervalles contigus) ; Intégration approchée de la fonction sur chaque morceau ; Sommation des résultats numériques ainsi obtenus.
Interpolation d'Hermitethumb|Comparaison graphique entre interpolation lagrangienne (en rouge) et hermitienne (en bleu) de la fonction (en noir) en trois points équidistants -1, 1/2, 2. En analyse numérique, l'interpolation d'Hermite, nommée d'après le mathématicien Charles Hermite, est une extension de l'interpolation de Lagrange, qui consiste, pour une fonction dérivable donnée et un nombre fini de points donnés, à construire un polynôme qui est à la fois interpolateur (c'est-à-dire dont les valeurs aux points donnés coïncident avec celles de la fonction) et osculateur (c'est-à-dire dont les valeurs de la dérivée aux points donnés coïncident avec celles de la dérivée de la fonction).
Matrice de VandermondeEn algèbre linéaire, une matrice de Vandermonde est une matrice avec une progression géométrique dans chaque ligne. Elle tient son nom du mathématicien français Alexandre-Théophile Vandermonde. De façon matricielle, elle se présente ainsi : Autrement dit, pour tous i et j, le coefficient en ligne i et colonne j est Remarque. Certains auteurs utilisent la transposée de la matrice ci-dessus. On considère une matrice V de Vandermonde carrée (). Elle est inversible si et seulement si les sont deux à deux distincts.
Spline interpolationIn the mathematical field of numerical analysis, spline interpolation is a form of interpolation where the interpolant is a special type of piecewise polynomial called a spline. That is, instead of fitting a single, high-degree polynomial to all of the values at once, spline interpolation fits low-degree polynomials to small subsets of the values, for example, fitting nine cubic polynomials between each of the pairs of ten points, instead of fitting a single degree-ten polynomial to all of them.
Extrapolation (mathématiques)En mathématiques, l'extrapolation est le calcul d'un point d'une courbe dont on ne dispose pas d'équation, à partir d'autres points, lorsque l'abscisse du point à calculer est au-dessus du maximum ou en dessous du minimum des points connus. En dehors de cette particularité, les méthodes sont les mêmes que pour l'interpolation. C'est, d'autre part, une méthode développée par Norbert Wiener en traitement du signal pour la prédiction. Le choix de la méthode d'extrapolation dépend de la connaissance a priori de la méthode de génération des données.
LAPACKLAPACK (pour Linear Algebra Package) est une bibliothèque logicielle écrite en Fortran, dédiée comme son nom l'indique à l'algèbre linéaire numérique. Elle a été développée initialement par l'université du Tennessee, le Courant Institute of Mathematical Sciences, le Numerical Algorithms Group, l'université Rice et les laboratoires d'Argonne et Oak Ridge. Cette bibliothèque fournit notamment des fonctions pour la résolution de systèmes d'équations linéaires, le calcul de valeurs propres et les décompositions de matrices (LU, QR, SVD, Cholesky).
Polynôme caractéristiqueEn mathématiques, et plus particulièrement en algèbre linéaire, à toute matrice carrée à coefficients dans un anneau commutatif ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme d'importantes informations sur la matrice ou sur l'endomorphisme, comme ses valeurs propres, son déterminant et sa trace. Le théorème de Cayley-Hamilton assure que toute matrice carrée annule son polynôme caractéristique.
Algorithme récursifUn algorithme récursif est un algorithme qui résout un problème en calculant des solutions d'instances plus petites du même problème. L'approche récursive est un des concepts de base en informatique. Les premiers langages de programmation qui ont autorisé l'emploi de la récursivité sont LISP et Algol 60. Depuis, tous les langages de programmation généraux réalisent une implémentation de la récursivité. Pour répéter des opérations, typiquement, un algorithme récursif s'appelle lui-même.