Transformation de Fourier discrèteEn mathématiques, la transformation de Fourier discrète (TFD) sert à traiter un signal numérique. Elle constitue un équivalent discret (c'est-à-dire pour un signal défini à partir d'un nombre fini d'échantillons) de la transformation de Fourier (continue) utilisée pour traiter un signal analogique. Plus précisément, la TFD est la représentation spectrale discrète dans le domaine des fréquences d'un signal échantillonné. La transformation de Fourier rapide est un algorithme particulier de calcul de la transformation de Fourier discrète.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Mathématiques discrètesLes mathématiques discrètes, parfois appelées mathématiques finies, sont l'étude des structures mathématiques fondamentalement discrètes, par opposition aux structures continues. Contrairement aux nombres réels, qui ont la propriété de varier "en douceur", les objets étudiés en mathématiques discrètes (tels que les entiers relatifs, les graphes simples et les énoncés en logique) ne varient pas de cette façon, mais ont des valeurs distinctes séparées.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Processus de LévyEn théorie des probabilités, un processus de Lévy, nommé d'après le mathématicien français Paul Lévy, est un processus stochastique en temps continu, continu à droite limité à gauche (càdlàg), partant de 0, dont les accroissements sont stationnaires et indépendants (cette notion est expliquée ci-dessous). Les exemples les plus connus sont le processus de Wiener et le processus de Poisson.
Variable aléatoire à densitéEn théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine. La fonction à intégrer est alors appelée « fonction de densité » ou « densité de probabilité », égale (dans le cas réel) à la dérivée de la fonction de répartition. Les densités de probabilité sont les fonctions essentiellement positives et intégrables d'intégrale 1.
Processus autorégressifUn processus autorégressif est un modèle de régression pour séries temporelles dans lequel la série est expliquée par ses valeurs passées plutôt que par d'autres variables. Un processus autorégressif d'ordre p, noté AR(p) est donné par : où sont les paramètres du modèle, est une constante et un bruit blanc. En utilisant l'opérateur des retards, on peut l'écrire : Un processus autorégressif d'ordre 1 s'écrit : On peut formuler le processus AR(1) de manière récursive par rapport aux conditions précédentes : En remontant aux valeurs initiales, on aboutit à : Il est à noter que les sommes vont ici jusqu'à l'infini.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Modèles ARCHEn économétrie, les modèles ARCH (AutoRegressive Conditional Heteroskedasticity) sont utilisés pour caractériser et modéliser des séries chronologiques. Ces modèles sont souvent appelés les modèles ARCH (Robert F. Engle, 1982), bien qu'une variété d'autres acronymes sont appliqués à des structures particulières du modèle qui ont une base similaire. Les modèles ARCH sont employés couramment dans la modélisation de séries temporelles financières, qui comportent des volatilités variables c'est-à-dire des périodes agitées suivies par des périodes de calme relatif.
Scaled correlationIn statistics, scaled correlation is a form of a coefficient of correlation applicable to data that have a temporal component such as time series. It is the average short-term correlation. If the signals have multiple components (slow and fast), scaled coefficient of correlation can be computed only for the fast components of the signals, ignoring the contributions of the slow components. This filtering-like operation has the advantages of not having to make assumptions about the sinusoidal nature of the signals.