En statistique, la régression de Poisson est un modèle linéaire généralisé utilisé pour les données de comptage et les tableaux de contingence. Cette régression suppose que la variable réponse Y suit une loi de Poisson et que le logarithme de son espérance peut être modélisé par une combinaison linéaire de paramètre inconnus. Soit un vecteur de variables indépendantes, et la variable que l'on cherche à prédire. Réaliser une régression de Poisson revient à supposer que suit une loi de Poisson de paramètre , avec et les paramètres de la régression à estimer, et le produit scalaire standard de . On peut ré-écrire le modèle ci-dessus ou de manière plus compacte avec un correspondant au précédent avec un élément supplémentaire valant 1. De même, . L'objectif de la régression de Poisson est d'estimer . Une fois ce vecteur estimé, il est possible de prédire pour un nouveau avec Si l'on a accès à une collection de couples indépendants : , alors peut être estimé par maximum de vraisemblance. Comme indiqué plus haut, à partir d'un paramètre et d'un vecteur d'entrée , la variable de sortie suit une loi de Poisson de paramètre La fonction de masse de cette loi de Poisson est alors Supposons que l'on ait accès à une collection de couples indépendants : . Alors, pour un vecteur donné, la fonction de vraisemblance (c'est-à-dire la probabilité d'obtenir cet ensemble de données particulier) s'écrit L'estimateur du maximum de vraisemblance, comme son nom l'indique, renvoie la valeur de qui maximise la vraisemblance des données. Pour ce faire, puisqu'il est difficile d'optimiser une fonction écrite comme un produit dont tous les termes sont positifs, on minimise la négative log-vraisemblance On peut remarquer que le terme ne dépend pas de . Puisque l'on cherche à trouver le qui minimise cette négative log-vraisemblance, on peut la simplifier à une constante additive près. Par abus de langage, on identifie la véritable négative log-vraisemblance et la version à une constante additive près : Pour trouver le minimum de cette négative log-vraisemblance, on résout l'équation , qui n'a pas de solution explicite.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (20)
MATH-408: Regression methods
General graduate course on regression methods
MATH-412: Statistical machine learning
A course on statistical machine learning for supervised and unsupervised learning
CS-433: Machine learning
Machine learning methods are becoming increasingly central in many sciences and applications. In this course, fundamental principles and methods of machine learning will be introduced, analyzed and pr
Afficher plus
Séances de cours associées (31)
Modèles marginaux : interprétation et application
Explore les modèles marginaux dans la régression moderne, en mettant laccent sur linterprétation et lapplication dans lanalyse statistique.
Régression moderne: surdispersion et évaluation du modèle
Explore les techniques de surdispersion, d'évaluation de modèle et de régression pour les données de comptage.
Inférence : vérification du modèle
Couvre les moindres carrés pondérés itératifs, les modèles linéaires généralisés et la vérification des modèles.
Afficher plus
Publications associées (32)

TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression

Mathieu Salzmann, Alexandre Massoud Alahi, Megh Hiren Shukla

Deep heteroscedastic regression involves jointly optimizing the mean and covariance of the predicted distribution using the negative log-likelihood. However, recent works show that this may result in sub-optimal convergence due to the challenges associated ...
2024

Bayes-optimal Learning of Deep Random Networks of Extensive-width

Florent Gérard Krzakala, Lenka Zdeborová, Hugo Chao Cui

We consider the problem of learning a target function corresponding to a deep, extensive-width, non-linear neural network with random Gaussian weights. We consider the asymptotic limit where the number of samples, the input dimension and the network width ...
2023

Validation of a Non-invasive Inverse Problem-Solving Method for Stroke Volume

Nikolaos Stergiopoulos, Georgios Rovas, Vasiliki Bikia, Stamatia Zoi Pagoulatou, Emma Marie Roussel

Stroke volume (SV) is a major biomarker of cardiac function, reflecting ventricular-vascular coupling. Despite this, hemodynamic monitoring and management seldomly includes assessments of SV and remains predominantly guided by brachial cuff blood pressure ...
FRONTIERS MEDIA SA2022
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.