En el mundo actual basado en datos, la precisión de los modelos predictivos ha recibido cada vez más atención y una de las cuestiones clave es cómo convertir las puntuaciones del clasificador en probabilidades de clase reales. Estas probabilidades no son sólo un reflejo de los resultados de la predicción, sino también un indicador clave para evaluar la confiabilidad del modelo.
“Si un pronosticador asigna una probabilidad de 30 a un evento, entonces, a largo plazo, la probabilidad real de que ocurra debería ser cercana a 30”.
En los problemas de clasificación, la calibración del modelo es un paso importante para mejorar la confiabilidad de la predicción. Incluso si un clasificador se desempeña bien al separar clases, sus probabilidades previstas pueden estar lejos de la realidad. Por lo tanto, realizar una calibración puede ayudar a mejorar estas estimaciones.
Se han propuesto muchas métricas de evaluación para medir el grado de calibración de las probabilidades producidas por un clasificador. Ejemplos de trabajo básico incluyen el error de calibración esperado (ECE). Vale la pena señalar que en la década de 2020 han surgido indicadores como el error de calibración adaptativo (ACE) y el error de calibración basado en pruebas (TCE), que resuelven el problema de las posibles limitaciones de la alta concentración de ECE.
Entre estos desarrollos, el Índice de Calibración Estimado (ECI) es uno de los principales avances de la década de 2020. Amplía el concepto de ECE y proporciona mediciones más detalladas para la calibración del modelo, especialmente para situaciones de exceso de confianza o insuficiencia. Inicialmente diseñado para entornos binarios, ECI también se adaptó posteriormente a entornos de clases múltiples, proporcionando información local y global sobre la calibración del modelo.
"A través de una serie de experimentos, Famiglini et al. demuestran la eficacia de este marco para proporcionar una comprensión más precisa de los niveles de calibración del modelo y analizan estrategias para reducir el sesgo en las evaluaciones de calibración".
Además de los métodos de calibración básicos, también existen algunos métodos de calibración univariados especializados que se pueden utilizar para convertir puntuaciones de clasificador en probabilidades de clase para dos tipos de casos, incluidos los métodos de valor asignado, los métodos bayesianos, la regresión isométrica y la escala de Platt. Calibración bayesiana de binning a cuantificación (BBQ), entre otras.
En el campo del pronóstico y la predicción probabilística, una de las herramientas de evaluación comúnmente utilizadas es la puntuación de Brier, que se utiliza para medir la precisión de la predicción de un conjunto de predicciones, es decir, si la magnitud de la probabilidad asignada es consistente. con la frecuencia relativa de las observaciones. Esto es diferente de la exactitud y la precisión, como dijo Daniel Kahneman: “Si asignas una probabilidad de 0,6 a todos los eventos que ocurren y una probabilidad de 0,4 a todos los eventos que no ocurren, tu calibración es perfecta. Sí, pero tus habilidades de identificación son perfectas”. terrible."
En el análisis de regresión, el problema de calibración se refiere a cómo utilizar datos conocidos para predecir otra variable. Este tipo de regresión hacia atrás a veces se puede llamar regresión hacia atrás cortada. Para el caso de clases múltiples, se requiere un método de calibración multivariante apropiado para convertir las puntuaciones del clasificador en probabilidades de clase.
“La datación de objetos mediante anillos de árboles o radiocarbono, por ejemplo, es un buen ejemplo de cómo podemos modelar la relación entre edades conocidas y observaciones”.
Sin embargo, si un modelo debe centrarse en minimizar el error de observación o el error de fecha al relacionar edades conocidas con las observaciones producirá resultados diferentes, especialmente al extrapolar. Se intensificará con la distancia del resultado conocido.
En conjunto, la calibración del modelo no solo puede mejorar la precisión de las predicciones, sino también mejorar la confianza de los usuarios en los resultados. En el proceso de toma de decisiones cada vez más automatizado, cómo convertir eficazmente las puntuaciones del modelo en probabilidades de clase reales se ha convertido en un tema importante para futuras investigaciones. Frente a estas estrategias y métodos, los lectores no pueden evitar pensar: al examinar la precisión de las predicciones del modelo, ¿en qué indicadores o pasos deberíamos centrarnos para garantizar la credibilidad del modelo?