Estimation spectraleL'estimation spectrale regroupe toutes les techniques d'estimation de la densité spectrale de puissance (DSP). Les méthodes d'estimation spectrale paramétriques utilisent un modèle pour obtenir une estimation du spectre. Ces modèles reposent sur une connaissance a priori du processus et peuvent être classées en trois grandes catégories : Modèles autorégressif (AR) Modèles à moyenne ajustée (MA) Modèles autorégressif à moyenne ajustée (ARMA). L'approche paramétrique se décompose en trois étapes : Choisir un modèle décrivant le processus de manière appropriée.
Matrices de PauliLes matrices de Pauli, développées par Wolfgang Pauli, forment, au facteur i près, une base de l'algèbre de Lie du groupe SU(2). Elles sont définies comme l'ensemble de matrices complexes de dimensions suivantes : (où i est l’unité imaginaire des nombres complexes). Ces matrices sont utilisées en mécanique quantique pour représenter le spin des particules, notamment dès 1927 dans l'étude non-relativiste du spin de l'électron : l'équation de Pauli.
Least-squares spectral analysisLeast-squares spectral analysis (LSSA) is a method of estimating a frequency spectrum based on a least-squares fit of sinusoids to data samples, similar to Fourier analysis. Fourier analysis, the most used spectral method in science, generally boosts long-periodic noise in the long and gapped records; LSSA mitigates such problems. Unlike in Fourier analysis, data need not be equally spaced to use LSSA.
Matrice bandeEn mathématiques, une matrice bande ou une matrice à bande est une matrice creuse dont les coefficients non nuls sont restreints à une bande diagonale, comprenant la diagonale principale et éventuellement une ou plusieurs diagonales de chaque côté. Formellement, on considère une matrice carrée A =(ai,j). Si tous les éléments de la matrice sont nuls en dehors d'une bande diagonale dont la plage est déterminée par les constantes k1 et k2 : alors les quantités k 1 et k 2 sont appelées les largeurs de bande inférieure et largeur de bande supérieure respectivement.
Décomposition QREn algèbre linéaire, la décomposition QR (appelée aussi, factorisation QR ou décomposition QU) d'une matrice A est une décomposition de la forme où Q est une matrice orthogonale (QQ=I), et R une matrice triangulaire supérieure. Ce type de décomposition est souvent utilisé pour le calcul de solutions de systèmes linéaires non carrés, notamment pour déterminer la pseudo-inverse d'une matrice. En effet, les systèmes linéaires AX = Y peuvent alors s'écrire : QRX = Y ou RX = QY.
Théorème spectralEn mathématiques, et plus particulièrement en algèbre linéaire et en analyse fonctionnelle, on désigne par théorème spectral plusieurs énoncés affirmant, pour certains endomorphismes, l'existence de décompositions privilégiées, utilisant en particulier l'existence de sous-espaces propres. vignette|Une illustration du théorème spectral dans le cas fini : un ellipsoïde possède (en général) trois axes de symétrie orthogonaux (notés ici x, y et z).
Factorisation de CholeskyLa factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive , à déterminer une matrice triangulaire inférieure telle que : . La matrice est en quelque sorte une « racine carrée » de . Cette décomposition permet notamment de calculer la matrice inverse , de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de ) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Matrice tridiagonaleEn mathématiques, en algèbre linéaire, une matrice tridiagonale est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale, ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls. Par exemple, la matrice suivante est tridiagonale : Une matrice , dont on note les coefficients a, est dite tridiagonale si : a = 0 pour tous (i, j) tels que i – j > 1, autrement dit si c'est une matrice de Hessenberg à la fois supérieure et inférieure.
Paire de matrices commutantesEn mathématiques, une paire de matrices commutantes est une paire {A, B} de matrices carrées à coefficients dans un corps qui commutent, c'est-à-dire que AB = BA. L'étude des paires de matrices commutantes a des aspects tout à fait élémentaires et d'autres qui font l'objet de recherches en cours. L'énoncé de certains problèmes étudiés est assez élémentaire pour être présenté au niveau de la première année d'études supérieures. En voici un exemple : Une matrice nilpotente est une matrice dont une puissance est nulle.
Matrice symétriquevignette|Matrice 5x5 symétrique. Les coefficients égaux sont représentés par la même couleur. En algèbre linéaire et multilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que a = a pour tous i et j compris entre 1 et n, où les a sont les coefficients de la matrice et n est son ordre. Les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite).