Na pesquisa acadêmica e na avaliação de aprendizado de máquina, a medição da consistência entre revisores ou classificadores é cada vez mais valorizada, e o coeficiente kappa de Cohen é uma ferramenta estatística essencial que pode não apenas Avaliar a consistência entre revisões também pode revelar colaborações ocultas. O cálculo e a interpretação dessa estatística apresentam seus próprios desafios, e o uso adequado do coeficiente Kappa pode promover um processo de tomada de decisão mais justo e equitativo.
O coeficiente Kappa de Cohen é considerado uma ferramenta de medição mais robusta do que um simples cálculo de porcentagem de concordância.
A primeira menção ao coeficiente Kappa de Cohen remonta a 1892, quando o estatístico Galton explorou pela primeira vez estatísticas semelhantes. Em 1960, Jacob Cohen publicou um artigo inovador no periódico Educational and Psychological Measurement, apresentando formalmente o coeficiente Kappa como uma nova técnica, que forneceu uma base importante para pesquisas subsequentes.
O coeficiente Kappa de Cohen é usado principalmente para medir a concordância entre dois revisores quando eles categorizam o mesmo item. Ele leva em consideração possíveis acordos aleatórios entre revisores e geralmente é expresso da seguinte forma:
Onde po é a concordância observada entre os revisores e pe é a probabilidade prevista de concordância aleatória. O valor de κ é 1 quando os dois revisores concordam perfeitamente e 0 quando não há mais do que um acordo aleatório entre os revisores. Em alguns casos, esse valor pode até ser um número negativo, indicando inconsistência significativa entre as avaliações.
Suponha que, em uma revisão de 50 solicitações de subsídios, dois revisores dão a cada solicitação uma avaliação “favorável” ou “não favorável”. Se 20 aplicações forem apoiadas pelo revisor A e pelo revisor B, e 15 aplicações não forem apoiadas por nenhum dos revisores A, então seu po de concordância observado pode ser calculado como 0,7.
Vale a pena notar que o coeficiente Kappa de Cohen pode resolver o problema de consistência aleatória que não pode ser refletido simplesmente usando porcentagens.
Calcule ainda mais a consistência esperada pe. Com base nos dados históricos de cada revisor, o revisor A apoia 50% das opiniões, enquanto o revisor B apoia 60%. Portanto, a previsão de consenso aleatório de ambas as partes é:
Finalmente, aplicando a fórmula acima para calcular o valor Kappa, obtemos κ = 0,4, o que significa que há um grau moderado de concordância entre os dois revisores.
O coeficiente Kappa de Cohen é amplamente utilizado em muitos campos, seja medicina, psicologia ou ciências sociais, especialmente quando é necessária uma análise qualitativa de dados. Pode ajudar os pesquisadores a identificar possíveis vieses e inconsistências no processo de revisão, aumentando assim a confiabilidade dos resultados da pesquisa.
ConclusãoNo entanto, os pesquisadores precisam ser cautelosos ao interpretar os resultados do coeficiente Kappa, pois seu valor pode estar relacionado a vários fatores, como o método de classificação da revisão, tamanho e distribuição da amostra, etc.
O coeficiente Kappa de Cohen não é apenas uma ferramenta estatística útil, mas também um indicador importante para revelar colaboração oculta entre revisores. No entanto, como usar e interpretar corretamente esse indicador ainda é uma questão que requer reflexão profunda. Você já pensou sobre quais desafios pode encontrar em sua pesquisa?