Type I and type II errorsIn statistical hypothesis testing, a type I error is the mistaken rejection of an actually true null hypothesis (also known as a "false positive" finding or conclusion; example: "an innocent person is convicted"), while a type II error is the failure to reject a null hypothesis that is actually false (also known as a "false negative" finding or conclusion; example: "a guilty person is not convicted").
Gold standard (test)Un test de référence ou gold standard (étalon-or) en anglais est le meilleur test disponible à un moment donné, notamment en médecine (diagnostic) ou en statistique (test d'hypothèse), pour établir la validité d'un fait. En raison de sa définition même, un test de référence est régulièrement remis en question et remplacé par un autre plus fiable lorsque c'est possible.
Point-of-care testingPoint-of-care testing (POCT), also called near-patient testing or bedside testing, is defined as medical diagnostic testing at or near the point of care—that is, at the time and place of patient care. This contrasts with the historical pattern in which testing was wholly or mostly confined to the medical laboratory, which entailed sending off specimens away from the point of care and then waiting hours or days to learn the results, during which time care must continue without the desired information.
Courbe liftEn exploration de données, le lift est une mesure de la performance d'un modèle prédictif ou descriptif, mesuré par rapport au modèle du choix aléatoire. Par exemple, supposons qu'une population ait un taux de réponse prédit égal à 5 %, mais qu'un certain modèle a identifié un segment avec un taux de réponse prédit de 20 %. Ce segment aura donc un lift de 4.0 (20 % / 5 %). Typiquement, le concepteur cherche à diviser la population en quantiles, et ordonner ces quantiles par lift.
Kappa de CohenEn statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981). Le calcul du κ se fait de la manière suivante : où Pr(a) est la proportion de l'accord entre codeurs et Pr(e) la probabilité d'un accord aléatoire.