Loi normale généraliséeEn théorie des probabilités et en statistique, la loi normale généralisée ou loi gaussienne généralisée désigne deux familles de lois de probabilité à densité dont les supports sont l'ensemble des réels. Cette loi rajoute un paramètre de forme à la loi normale. Pour les différencier, les deux familles seront appelées « version 1 » et « version 2 », ce ne sont cependant pas des appellations standards. La densité de probabilité des lois de cette famille est donnée par la formule : où est la fonction gamma, est un paramètre de position, est un paramètre d'échelle et est un paramètre de forme.
Loi Gamma généraliséeEn théorie des probabilités et en statistiques, une loi Gamma généralisée est un type de loi de probabilité de variables aléatoires réelles positives avec deux paramètres de forme (et un paramètre d'échelle), qui est une extension de la loi Gamma avec un paramètre de forme additionnel. Comme de nombreuses lois sont utilisées comme modèles paramétriques dans l'analyse de survie (telles que la loi exponentielle, la loi de Weibull et la loi Gamma) sont des cas particuliers de la loi Gamma généralisée, elle est parfois utilisée pour déterminer quel modèle paramétrique est adapté pour un jeu de données.
Survival functionThe survival function is a function that gives the probability that a patient, device, or other object of interest will survive past a certain time. The survival function is also known as the survivor function or reliability function. The term reliability function is common in engineering while the term survival function is used in a broader range of applications, including human mortality. The survival function is the complementary cumulative distribution function of the lifetime.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Loi log-logistiqueDans la théorie des probabilités et en statistiques, la loi log-logistique (connue aussi comme la distribution de Fisk en économie) est une loi de probabilité continue pour une variable aléatoire strictement positive. Elle est utilisée dans l'étude de la durée de vie d'événement dont l'intensité augmente d'abord pour ensuite décroître, comme pour la mortalité dû au cancer après diagnostic ou traitement. Elle est aussi utilisée en hydrologie pour modéliser le débit d'un cours d'eau ou le niveau des précipitations, et en économie pour modéliser l'inégalité des revenus.
Maximum spacing estimationIn statistics, maximum spacing estimation (MSE or MSP), or maximum product of spacing estimation (MPS), is a method for estimating the parameters of a univariate statistical model. The method requires maximization of the geometric mean of spacings in the data, which are the differences between the values of the cumulative distribution function at neighbouring data points.