En estadística, la prueba de razón de verosimilitud es un método de prueba de hipótesis utilizado para comparar la bondad del ajuste de dos modelos estadísticos en competencia. De estos dos modelos, uno es un modelo de maximización de todo el espacio de parámetros y el otro es un modelo obtenido después de ciertas restricciones. Cuando los datos observados respaldan el modelo más restringido (es decir, la hipótesis nula), las dos probabilidades no deberían diferir mucho debido al error de muestreo.
Por lo tanto, el propósito de la prueba de razón de verosimilitud es probar si esta razón de verosimilitud es significativamente diferente de uno, o, más equivalentemente, si su logaritmo natural es significativamente diferente de cero.
Esta prueba, también conocida como prueba de Wilks, es el primero de los tres métodos tradicionales de prueba de hipótesis; los otros dos son la prueba del multiplicador de Lagrange y la prueba de Wald. Ambos pueden verse como aproximaciones de la prueba de razón de verosimilitud y son asintóticamente equivalentes. En modelos sin parámetros desconocidos, el uso de la prueba de razón de verosimilitud puede justificarse utilizando el lema de Neyman-Pearson. Vale la pena mencionar que el lema muestra que entre todas las pruebas en competencia, esta prueba tiene el mayor poder de detección.
Supongamos que tenemos un modelo estadístico con espacio de parámetros Θ
. La hipótesis nula generalmente establece que el parámetro θ
está en un subconjunto específico Θ0
, mientras que la hipótesis alternativa establece que θ
está en Θ0 Complemento de
. Es decir, la hipótesis alternativa sostiene que θ
pertenece a Θ \ Θ0
. Si la hipótesis nula es verdadera, la fórmula de cálculo para la estadística de prueba de razón de verosimilitud es:
λLR = −2 ln [
supθ∈Θ0 L(θ)
/supθ∈Θ L(θ)
]
Aquí sup
significa supremo. Como todas las probabilidades son positivas, los cocientes de probabilidad tienen valores entre cero y uno, ya que el máximo restringido no puede exceder el máximo no restringido. La estadística de prueba de razón de verosimilitud se expresa a menudo como la diferencia de verosimilitud logarítmica:
λLR = −2 [ ℓ(θ0) − ℓ(θ^) ]
Aquí, la clave de la prueba de razón de verosimilitud es la prueba mutua entre diferentes modelos. Si los modelos están anidados (es decir, el modelo más complejo se puede transformar en uno más simple imponiendo restricciones a sus parámetros), entonces muchas estadísticas de prueba comunes se pueden ver como pruebas de razón de verosimilitud logarítmica análogas. Esto incluye la prueba Z, la prueba F, la prueba G y la prueba de chi-cuadrado de Pearson, entre otras.
Λ(x) =
L(θ0 | x)
/L(θ1 | x)
Si Λ > c
, entonces no rechace la hipótesis nula H0
; si Λ < c
, entonces rechace la hipótesis nula H0
. >H0< /código>. En este caso, el lema de Neyman-Pearson demuestra además que esta prueba de razón de verosimilitud es la más poderosa de todas las pruebas de nivel alfa.
La razón de verosimilitud es una función de los datos y es un indicador del rendimiento de un modelo en relación con otro. Si el valor de la razón de verosimilitud es pequeño, significa que la probabilidad del resultado observado bajo la hipótesis nula es mucho menor que bajo la hipótesis alternativa, rechazándose así la hipótesis nula. Por el contrario, una razón de verosimilitud alta indica que el resultado observado es casi tan probable bajo la hipótesis nula como bajo la hipótesis alternativa, por lo que la hipótesis nula no puede rechazarse.
Supongamos que tenemos n muestras de una distribución normal. Queremos comprobar si la media μ de la población es un valor dado μ0
. En este momento, la hipótesis nula se puede expresar como H0: μ = μ0
, y la hipótesis alternativa es H1: μ ≠ μ0
. Después de los cálculos correspondientes, se puede obtener la expresión de la razón de verosimilitud:
λLR = n ln [ 1 + t^2 / (n - 1) ]
Luego, la distribución específica se utiliza para guiar inferencias posteriores.
Distribución asintótica: teorema de WilkesAunque la distribución exacta de la razón de verosimilitud es difícil de determinar en muchos casos, el teorema de Wilkes establece que si la hipótesis nula es verdadera y el tamaño de la muestra n
tiende a infinito, entonces la estadística de prueba será siguen asintóticamente una distribución de chi-cuadrado. Esto nos permite calcular la razón de verosimilitud y compararla con el nivel de significancia deseado.