Dans la recherche universitaire et l'évaluation de l'apprentissage automatique, la mesure de la cohérence entre les évaluateurs ou les classificateurs est de plus en plus valorisée, et le coefficient kappa de Cohen est un outil statistique clé qui peut non seulement évaluer la cohérence entre les évaluations, mais aussi révéler des collaborations cachées. Le calcul et l’interprétation de cette statistique présentent leurs propres défis uniques, et l’utilisation appropriée du coefficient Kappa peut favoriser un processus décisionnel plus juste et plus équitable.
Le coefficient Kappa de Cohen est considéré comme un outil de mesure plus robuste qu'un simple calcul de concordance en pourcentage.
La première mention du coefficient Kappa de Cohen remonte à 1892, lorsque le statisticien Galton a exploré pour la première fois des statistiques similaires. En 1960, Jacob Cohen a publié un article révolutionnaire dans la revue Educational and Psychological Measurement, introduisant officiellement le coefficient Kappa comme une nouvelle technique, qui a fourni une base importante pour les recherches ultérieures.
Le coefficient Kappa de Cohen est principalement utilisé pour mesurer l'accord entre deux évaluateurs lorsqu'ils catégorisent le même élément. Il prend en compte un éventuel accord aléatoire entre les examinateurs et s'exprime généralement comme suit :
κ = (po - pe) / (1 - pe)
Où po est l'accord observé entre les évaluateurs et pe est la probabilité prédite d'accord aléatoire. La valeur de κ est 1 lorsque les deux évaluateurs sont parfaitement d’accord et 0 lorsqu’il n’y a qu’un accord aléatoire entre les évaluateurs. Dans certains cas, cette valeur peut même être un nombre négatif, indiquant une incohérence importante entre les avis.
Supposons que lors d’un examen de 50 demandes de subvention, deux évaluateurs donnent à chaque demande une évaluation « favorable » ou « défavorable ». Si 20 applications sont soutenues à la fois par l'examinateur A et l'examinateur B, et que 15 applications ne sont soutenues par aucun des deux examinateurs A, alors leur accord observé po peut être calculé à 0,7.
Il convient de noter que le coefficient Kappa de Cohen peut résoudre le problème de cohérence aléatoire qui ne peut pas être reflété en utilisant simplement des pourcentages.
Calculez ensuite la cohérence attendue pe. Sur la base des données historiques de chaque examinateur, l'examinateur A soutient 50 % des opinions, tandis que l'examinateur B en soutient 60 %. Par conséquent, la prédiction de consensus aléatoire des deux parties est :
pe = pOui + pNon = 0,3 + 0,2 = 0,5
Enfin, en appliquant la formule ci-dessus pour calculer la valeur Kappa, nous obtenons κ = 0,4, ce qui signifie qu'il existe un degré modéré d'accord entre les deux examinateurs.
Le coefficient Kappa de Cohen est largement utilisé dans de nombreux domaines, que ce soit la médecine, la psychologie ou les sciences sociales, en particulier lorsque l'analyse qualitative des données est requise. Il peut aider les chercheurs à identifier les biais et les incohérences potentiels dans le processus d’évaluation, améliorant ainsi la fiabilité des résultats de la recherche.
ConclusionCependant, les chercheurs doivent être prudents lors de l’interprétation des résultats du coefficient Kappa, car sa valeur peut être liée à plusieurs facteurs tels que la méthode de classification de l’étude, la taille et la distribution de l’échantillon, etc.
Le coefficient Kappa de Cohen n’est pas seulement un outil statistique utile, mais également un indicateur important pour révéler une collaboration cachée entre les évaluateurs. Cependant, la manière d'utiliser et d'interpréter correctement cet indicateur reste une question qui nécessite une réflexion approfondie. Avez-vous déjà pensé aux défis que vous pourriez rencontrer dans vos recherches ?