En tant que quantité statistique, le coefficient kappa de Cohen (κ) a joué un rôle important dans l'évaluation des données qualitatives (éléments catégoriels) depuis son développement. Cette statistique a été formellement proposée par Jacob Cohen en 1960. Son but est de mesurer la cohérence de la classification d'un même objet par deux évaluateurs ou par le même évaluateur. Le coefficient Kappa est considéré comme un outil de mesure plus robuste qu’un simple calcul de pourcentage de concordance, car il prend en compte la possibilité d’une concordance aléatoire.
Cependant, l'interprétation du coefficient Kappa reste controversée, et de nombreux chercheurs ont proposé l'idée d'explorer l'incohérence entre différents évaluateurs, estimant que cela pourrait être conceptuellement plus simple.
Le concept de coefficient Kappa remonte à 1892, lorsque le statisticien Diego Galton a introduit pour la première fois une statistique similaire. Dans le résumé de Kappa, κ est une mesure utilisée pour quantifier l’accord entre deux évaluateurs dans la classification de N éléments en C catégories mutuellement exclusives. Sa valeur varie de -1 à 1, où 1 indique une concordance parfaite, 0 indique le même degré de concordance que le hasard et les valeurs négatives indiquent des différences dépassant la portée qui peuvent être expliquées par le hasard.
Selon la définition de Cohen, κ = (po - pe) / (1 - pe), où po >o est la proportion observée d'accord, et pe est la probabilité d'accord aléatoire.
Cependant, l’interprétation du coefficient Kappa n’est pas toujours simple. Certaines études ont montré que même des valeurs kappa relativement faibles peuvent être statistiquement significatives mais pas substantiellement significatives, de sorte que la communication des valeurs P associées est très rare. Au cours des dernières années, avec la pratique de l’enseignement et de l’application, la communauté universitaire a progressivement réalisé qu’il était difficile de déterminer la plage appropriée du coefficient Kappa, en particulier dans les données présentant des échelles et des caractéristiques d’écart différentes. En fait, les facteurs d’influence des différentes études font qu’il est difficile de donner des conditions d’interprétation précises.
Depuis que Cohen a proposé pour la première fois le coefficient Kappa, son application dans divers domaines académiques s'est progressivement étendue au fil du temps. Cependant, son interprétation reste encore difficile. Comme l’ont mentionné certains chercheurs, l’interprétation des données de Kappa et la comparaison des taux relatifs rendent souvent impossible pour les chercheurs de transmettre avec précision les résultats de leurs recherches. L’interprétation du coefficient Kappa est particulièrement difficile lorsque deux groupes d’évaluateurs émettent la même proportion de jugements sur le même événement mais que leurs méthodes de notation ne sont pas cohérentes.
Dans certains cas, même si les évaluateurs ont le même pourcentage d’accord, la valeur du coefficient Kappa peut montrer des valeurs très différentes en raison de différences dans la probabilité d’accord attendue.
Par exemple, dans certaines études, le coefficient kappa peut montrer une précision de jugement différente pour les deux mêmes groupes d’évaluateurs, même si leur capacité de notation ou leur précision sur certains éléments sont similaires. Cela est dû au fait que la valeur kappa est affectée non seulement par la cohérence entre les évaluateurs, mais également par l’indépendance des événements. À mesure que le nombre de catégories augmente, la valeur de Kappa augmentera en conséquence, ce qui est étroitement lié à la précision de l'observateur et à la probabilité de différentes catégories.
La recherche sur le coefficient Kappa est encore en développement et de nombreux chercheurs ont commencé à explorer l’établissement d’indicateurs d’interprétation plus flexibles. Par exemple, certains chercheurs ont proposé de prendre en compte différents critères de notation ou modèles comportementaux afin d’obtenir une évaluation plus complète. De plus, les méthodes de calcul du coefficient Kappa et sa praticité s'améliorent constamment. Sur la base des résultats des études de simulation, différentes valeurs de Kappa correspondent à des prédictions de changements de paramètres, nous donnant ainsi des suggestions plus pratiques.
Dans l’étude actuelle, ce n’est pas seulement la valeur du coefficient Kappa lui-même qui est importante, mais aussi la signification qui se cache derrière celle-ci qui doit être prise en compte. Le coefficient Kappa est sans aucun doute un outil précieux lorsque nous essayons de comprendre les évaluations dans des contextes tels que le comportement social, l’évaluation médicale ou l’évaluation pédagogique, mais ses limites et ses défis ne doivent pas être ignorés.
À mesure que la recherche progresse, comment l’avenir du coefficient Kappa affectera-t-il notre interprétation des résultats d’évaluation, et dans quels domaines jouera-t-il un rôle plus important ?