Résumé
In statistics, identifiability is a property which a model must satisfy for precise inference to be possible. A model is identifiable if it is theoretically possible to learn the true values of this model's underlying parameters after obtaining an infinite number of observations from it. Mathematically, this is equivalent to saying that different values of the parameters must generate different probability distributions of the observable variables. Usually the model is identifiable only under certain technical restrictions, in which case the set of these requirements is called the identification conditions. A model that fails to be identifiable is said to be non-identifiable or unidentifiable: two or more parametrizations are observationally equivalent. In some cases, even though a model is non-identifiable, it is still possible to learn the true values of a certain subset of the model parameters. In this case we say that the model is partially identifiable. In other cases it may be possible to learn the location of the true parameter up to a certain finite region of the parameter space, in which case the model is set identifiable. Aside from strictly theoretical exploration of the model properties, identifiability can be referred to in a wider scope when a model is tested with experimental data sets, using identifiability analysis. Let be a statistical model with parameter space . We say that is identifiable if the mapping is one-to-one: This definition means that distinct values of θ should correspond to distinct probability distributions: if θ1≠θ2, then also Pθ1≠Pθ2. If the distributions are defined in terms of the probability density functions (pdfs), then two pdfs should be considered distinct only if they differ on a set of non-zero measure (for example two functions ƒ1(x) = 10 ≤ x < 1 and ƒ2(x) = 10 ≤ x ≤ 1 differ only at a single point x = 1 — a set of measure zero — and thus cannot be considered as distinct pdfs). Identifiability of the model in the sense of invertibility of the map is equivalent to being able to learn the model's true parameter if the model can be observed indefinitely long.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (6)
MATH-352: Causal thinking
This course will give a unified presentation of modern methods for causal inference. We focus on concepts, and we will present examples and ideas from various scientific disciplines, including medicin
EE-607: Advanced Methods for Model Identification
This course introduces the principles of model identification for non-linear dynamic systems, and provides a set of possible solution methods that are thoroughly characterized in terms of modelling as
MATH-655: Advanced methods for causal inference
This course covers recent methodology for causal inference in settings with time-varying exposures (longitudinal data) and causally connected units (interference). We will consider theory for identifi
Afficher plus
Séances de cours associées (17)
Modèles acycliques gaussiens : linéarité et identifiabilité
Couvre les modèles acycliques gaussiens axés sur la linéarité et l'identifiabilité.
Estimation des points dans les statistiques
Explore l'estimation ponctuelle dans les statistiques, en discutant du biais, de la variance, de l'erreur quadratique moyenne et de la cohérence des estimateurs.
Distributions d'échantillonnage: Théorie et applications
Explorer les distributions d'échantillonnage, les propriétés des estimateurs et les mesures statistiques pour les applications de la science des données.
Afficher plus
Publications associées (33)

Revisiting the General Identifiability Problem

Negar Kiyavash, Ehsan Mokhtarian, Yaroslav Kivva, Seyed Jalal Etesami

We revisit the problem of general identifiability originally introduced in [Lee et al., 2019] for causal inference and note that it is necessary to add positivity assumption of observational distribution to the original definition of the problem. We show t ...
2022
Afficher plus
Concepts associés (8)
Parameter identification problem
In economics and econometrics, the parameter identification problem arises when the value of one or more parameters in an economic model cannot be determined from observable variables. It is closely related to non-identifiability in statistics and econometrics, which occurs when a statistical model has more than one set of parameters that generate the same distribution of observations, meaning that multiple parameterizations are observationally equivalent.
Régression linéaire
En statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Modèle linéaire
vignette|Données aléatoires sous forme de points, et leur régression linéaire. Un modèle linéaire multivarié est un modèle statistique dans lequel on cherche à exprimer une variable aléatoire à expliquer en fonction de variables explicatives X sous forme d'un opérateur linéaire. Le modèle linéaire est donné selon la formule : où Y est une matrice d'observations multivariées, X est une matrice de variables explicatives, B est une matrice de paramètres inconnus à estimer et U est une matrice contenant des erreurs ou du bruit.
Afficher plus