En statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981).
Le calcul du κ se fait de la manière suivante :
où Pr(a) est la proportion de l'accord entre codeurs et Pr(e) la probabilité d'un accord aléatoire. Si les codeurs sont totalement en accord, κ = 1. S'ils sont totalement en désaccord (ou en accord dû uniquement au hasard),
κ ≤ 0.
La méthode de Kappa mesure le degré de concordance entre deux évaluateurs, par rapport au hasard.
Supposons que deux évaluateurs (Marc et Mathieu) soient chargés de définir dans un groupe de 50 étudiants ceux qui seront reçus ou non à l'examen final. Chacun d'eux contrôle la copie de chaque étudiant et la note comme reçu ou non reçu (OUI ou NON). Le tableau ci-dessous donne les résultats :
L'observation des accords entre évaluateurs est :
Pour calculer la probabilité d'accord « au hasard », on note que :
Mathieu a noté « OUI » à 25 étudiants, soit 50 % des cas.
Marc a noté « OUI » dans 60 %, soit 30 étudiants sur 50.
Ainsi la probabilité attendue que les deux correcteurs notent « OUI » est :
De même la probabilité que les deux correcteurs notent « NON » est :
La probabilité globale que les correcteurs soient en accord est donc :
La formule de Kappa donnera alors :
Dans une autre proportion nous aurions obtenu :
L'observation des accords entre évaluateurs est :
Pour calculer la probabilité d'accord « au hasard », on note que :
Mathieu a noté « OUI » à 27 étudiants, soit 54 % des cas,
et que Marc a noté « OUI » dans 56 %.
Ainsi la probabilité attendue que les deux correcteurs notent « OUI » est :
De même la probabilité que les deux correcteurs notent « NON » est :
La probabilité globale que les correcteurs soient en accord est donc :
La formule de Kappa donnera alors :
Landis et Koch ont proposé le tableau suivant pour interpréter le κ de Cohen.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Ce cours est divisé en deux partie. La première partie présente le langage Python et les différences notables entre Python et C++ (utilisé dans le cours précédent ICC). La seconde partie est une intro
Students understand basic concepts and methods of machine learning. They can describe them in mathematical terms and can apply them to data using a high-level programming language (julia/python/R).
Machine learning and data analysis are becoming increasingly central in many sciences and applications. In this course, fundamental principles and methods of machine learning will be introduced, analy
Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard.
In statistics, inter-rater reliability (also called by various similar names, such as inter-rater agreement, inter-rater concordance, inter-observer reliability, inter-coder reliability, and so on) is the degree of agreement among independent observers who rate, code, or assess the same phenomenon. Assessment tools that rely on ratings must exhibit good inter-rater reliability, otherwise they are not valid tests. There are a number of statistics that can be used to determine inter-rater reliability.
Scott's pi (named after William A Scott) is a statistic for measuring inter-rater reliability for nominal data in communication studies. Textual entities are annotated with categories by different annotators, and various measures are used to assess the extent of agreement between the annotators, one of which is Scott's pi. Since automatically annotating text is a popular problem in natural language processing, and the goal is to get the computer program that is being developed to agree with the humans in the annotations it creates, assessing the extent to which humans agree with each other is important for establishing a reasonable upper limit on computer performance.
AIM: To characterise the corticoreticular pathway (CRP) in a case -control cohort of adolescent idiopathic scoliosis (AIS) patients using high -resolution slice -accelerated readoutsegmented echo -planar diffusion tensor imaging (DTI) to enhance the discri ...
W B Saunders Co Ltd2024
In this thesis, we consider an anisotropic finite-range bond percolation model on Z2. On each horizontal layer {(x,i):x∈Z} for i∈Z, we have edges ⟨(x,i),(y,i)⟩ for 1≤∣x−y∣≤N with $N\in\mathbb{N ...
EPFL2021
, ,
Multigene assays for molecular subtypes and biomarkers can aid management of early invasive breast cancer. Using RNA-sequencing we aimed to develop single-sample predictor (SSP) models for clinical markers, subtypes, and risk of recurrence (ROR). A cohort ...
NATURE PORTFOLIO2022
Explorer la régression linéaire généralisée, la classification, les matrices de confusion, les courbes ROC et le bruit dans les données.
Introduit des concepts clés en matière de droits de l'homme, explore la discrimination, les normes sociales et l'impact des algorithmes sur les droits.
Se penche sur l'évaluation de la PNL, couvrant les normes d'or, la précision, le rappel et la signification statistique.