Loi de RiceEn statistiques et théorie des probabilités, la loi de Rice, nommée d'après (1907–1986), est une loi de probabilité à densité (c'est-à-dire continue). C'est une généralisation de la loi de Rayleigh utilisée pour décrire le comportement d'un signal radio qui se propage selon plusieurs chemins (multipath) avant d'être reçu par une antenne. Soient deux variables de Gauss centrées, indépendantes, de même variance σ.
Tableau de contingenceUn tableau de contingence est une méthode de représentation de données issues d’un comptage permettant d'estimer la dépendance entre deux caractères. Elle consiste à croiser deux caractères d'une population (par exemple une classe d'âge et un score) en dénombrant l'effectif correspondant à la conjonction « caractère 1 » et « caractère 2 ». Les effectifs partiels sont rassemblés dans un tableau à double entrée, par ligne pour le premier caractère, et par colonne en fonction du second caractère : c'est le « tableau de contingence ».
Test du multiplicateur de LagrangeLe test du multiplicateur de Lagrange (LM) ou test de score ou test de Rao est un principe général pour tester des hypothèses sur les paramètres dans un cadre de vraisemblance. L'hypothèse sous le test est exprimée comme une ou plusieurs contraintes sur les valeurs des paramètres. La statistique du test LM ne nécessite une maximisation que dans cet espace contraint des paramètres (en particulier si l'hypothèse à tester est de la forme alors ).
Test de WaldLe test de Wald est un test paramétrique économétrique dont l'appellation vient du mathématicien américain d'origine hongroise Abraham Wald (-) avec une grande variété d'utilisations. Chaque fois que nous avons une relation au sein des ou entre les éléments de données qui peuvent être exprimées comme un modèle statistique avec des paramètres à estimer, et tout cela à partir d'un échantillon, le test de Wald peut être utilisé pour « tester la vraie valeur du paramètre » basé sur l'estimation de l'échantillon.
Loi normale généraliséeEn théorie des probabilités et en statistique, la loi normale généralisée ou loi gaussienne généralisée désigne deux familles de lois de probabilité à densité dont les supports sont l'ensemble des réels. Cette loi rajoute un paramètre de forme à la loi normale. Pour les différencier, les deux familles seront appelées « version 1 » et « version 2 », ce ne sont cependant pas des appellations standards. La densité de probabilité des lois de cette famille est donnée par la formule : où est la fonction gamma, est un paramètre de position, est un paramètre d'échelle et est un paramètre de forme.
Distance de MahalanobisEn statistique, la distance de Mahalanobis est une mesure de distance mathématique introduite par Prasanta Chandra Mahalanobis en 1936. Elle est basée sur la corrélation entre des variables par lesquelles différents modèles peuvent être identifiés et analysés. C'est une manière utile de déterminer la similarité entre une série de données connues et inconnues. Elle diffère de la distance euclidienne par le fait qu'elle prend en compte la variance et la corrélation de la série de données.
One- and two-tailed testsIn statistical significance testing, a one-tailed test and a two-tailed test are alternative ways of computing the statistical significance of a parameter inferred from a data set, in terms of a test statistic. A two-tailed test is appropriate if the estimated value is greater or less than a certain range of values, for example, whether a test taker may score above or below a specific range of scores. This method is used for null hypothesis testing and if the estimated value exists in the critical areas, the alternative hypothesis is accepted over the null hypothesis.
Univariate distributionIn statistics, a univariate distribution is a probability distribution of only one random variable. This is in contrast to a multivariate distribution, the probability distribution of a random vector (consisting of multiple random variables). One of the simplest examples of a discrete univariate distribution is the discrete uniform distribution, where all elements of a finite set are equally likely. It is the probability model for the outcomes of tossing a fair coin, rolling a fair die, etc.
Fisher's methodIn statistics, Fisher's method, also known as Fisher's combined probability test, is a technique for data fusion or "meta-analysis" (analysis of analyses). It was developed by and named for Ronald Fisher. In its basic form, it is used to combine the results from several independence tests bearing upon the same overall hypothesis (H0). Fisher's method combines extreme value probabilities from each test, commonly known as "p-values", into one test statistic (X2) using the formula where pi is the p-value for the ith hypothesis test.
Logarithmically concave functionIn convex analysis, a non-negative function f : Rn → R+ is logarithmically concave (or log-concave for short) if its domain is a convex set, and if it satisfies the inequality for all x,y ∈ dom f and 0 < θ < 1. If f is strictly positive, this is equivalent to saying that the logarithm of the function, log ∘ f, is concave; that is, for all x,y ∈ dom f and 0 < θ < 1. Examples of log-concave functions are the 0-1 indicator functions of convex sets (which requires the more flexible definition), and the Gaussian function.