G-testIn statistics, G-tests are likelihood-ratio or maximum likelihood statistical significance tests that are increasingly being used in situations where chi-squared tests were previously recommended. The general formula for G is where is the observed count in a cell, is the expected count under the null hypothesis, denotes the natural logarithm, and the sum is taken over all non-empty cells. Furthermore, the total observed count should be equal to the total expected count:where is the total number of observations.
Karl PearsonKarl Pearson (–), mathématicien britannique, est un des fondateurs de la statistique moderne appliquée à la biomédecine (biométrie et biostatistique). Il est principalement connu pour avoir développé le coefficient de corrélation et le test du χ2. Il est aussi l'un des fondateurs de la revue Biometrika, dont il a été rédacteur en chef pendant 36 ans et qu'il a hissée au rang des meilleures revues de statistique mathématique. Né le de Fanny Smith et William Pearson, tous deux issus de familles quakers du Yorkshire, Karl Pearson a deux frères et une sœur.
Loi d'ErlangLa distribution d'Erlang est une loi de probabilité continue, dont l'intérêt est dû à sa relation avec les distributions exponentielle et Gamma. Cette distribution a été développée par Agner Krarup Erlang afin de modéliser le nombre d'appels téléphoniques simultanés. La distribution est continue et possède deux paramètres : le paramètre de forme , un entier, et le paramètre d'intensité , un réel. On utilise parfois une paramétrisation alternative, où on considère plutôt le paramètre d'échelle .
Generalized chi-squared distributionIn probability theory and statistics, the generalized chi-squared distribution (or generalized chi-square distribution) is the distribution of a quadratic form of a multinormal variable (normal vector), or a linear combination of different normal variables and squares of normal variables. Equivalently, it is also a linear sum of independent noncentral chi-square variables and a normal variable. There are several other such generalizations for which the same term is sometimes used; some of them are special cases of the family discussed here, for example the gamma distribution.
Noncentral distributionNoncentral distributions are families of probability distributions that are related to other "central" families of distributions by means of a noncentrality parameter. Whereas the central distribution describes how a test statistic is distributed when the difference tested is null, noncentral distributions describe the distribution of a test statistic when the null is false (so the alternative hypothesis is true). This leads to their use in calculating statistical power.
Loi demi-normaleEn théorie des probabilités et en statistique, la loi demi-normale est un cas particulier de la loi normale repliée. Soit une variable aléatoire de loi normale centrée, , alors est de loi demi-normale. En particulier, la loi demi-normale est une loi normale repliée de paramètre 0 et . La densité de probabilité de la loi demi-normale est donnée par : L'espérance est : En faisant le changement de variable : , utile lorsque est proche de zéro, la densité prend la forme : L'espérance est alors : La fonction de répartition de la loi demi-normale est donnée par : En utilisant le changement de variable , la fonction de répartition peut s'écrire où erf est la fonction d'erreur.
Reduced chi-squared statisticIn statistics, the reduced chi-square statistic is used extensively in goodness of fit testing. It is also known as mean squared weighted deviation (MSWD) in isotopic dating and variance of unit weight in the context of weighted least squares. Its square root is called regression standard error, standard error of the regression, or standard error of the equation (see ) It is defined as chi-square per degree of freedom: where the chi-squared is a weighted sum of squared deviations: with inputs: variance , observations O, and calculated data C.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Test exact de FisherEn statistique, le test exact de Fisher est un test statistique exact utilisé pour l'analyse des tables de contingence. Ce test est utilisé en général avec de faibles effectifs mais il est valide pour toutes les tailles d'échantillons. Il doit son nom à son inventeur, Ronald Fisher. C'est un test qualifié d'exact car les probabilités peuvent être calculées exactement plutôt qu'en s'appuyant sur une approximation qui ne devient correcte qu'asymptotiquement comme pour le test du utilisé dans les tables de contingence.
Loi de WishartEn théorie des probabilités et en statistique, la loi de Wishart est la généralisation multidimensionnelle de la loi du χ2, ou, dans le cas où le nombre de degré de libertés n'est pas entier, de la loi gamma. La loi est dénommée en l'honneur de John Wishart qui la formula pour la première fois en 1928. C'est une famille de lois de probabilité sur les matrices définies positives, symétriques. Une variable aléatoire de loi de Wishart est donc une matrice aléatoire.