In der Statistik ist der Likelihood-Ratio-Test eine Hypothesentestmethode, die die Anpassung zweier konkurrierender statistischer Modelle vergleicht, um zu bestimmen, welches Modell besser mit den beobachteten Daten übereinstimmt. Bei den beiden Modellen handelt es sich normalerweise um ein Modell, das durch Maximierung des globalen Parameterraums erhalten wird, und um ein Modell, dem Einschränkungen auferlegt werden. In diesem Prozess besteht der Zweck des Tests darin, anhand ihres Likelihood-Verhältnisses zu bestimmen, ob die beobachteten Daten die Hypothese zwischen dem einfacheren Modell und dem komplexen Modell stützen. Kurz gesagt, dieser Test hilft uns, zugrunde liegende Muster in den Daten zu identifizieren.
Die Kernidee des Likelihood-Ratio-Tests besteht darin, dass sich die Wahrscheinlichkeit der beiden Modelle nicht um mehr als den Stichprobenfehler unterscheiden sollte, wenn das einfachere Modell (d. h. die Nullhypothese) durch die beobachteten Daten gestützt wird.
Angenommen, wir haben ein statistisches Modell im Parameterraum Θ
. Die Nullhypothese bedeutet normalerweise, dass der Parameter θ
innerhalb einer bestimmten Teilmenge Θ₀
liegt, während die Alternativhypothese bedeutet, dass θ
innerhalb von Θ₀ liegt
Das Komplement von code>, also Θ \ Θ₀
. Die Likelihood-Ratio-Teststatistik kann wie folgt berechnet werden:
λLR = -2 ln [ sup
θ∈Θ₀
L(θ
) / supθ∈Θ
L(θ
) ]
Der L(θ)
ist hier die gerade erwähnte Wahrscheinlichkeitsfunktion. Die Bedeutung dieser Formel besteht darin, dass sich das berechnete Ergebnis bei Aufstellung der Nullhypothese der Chi-Quadrat-Verteilung in der Potenz annähert, sodass wir dieses Ergebnis zum Testen von Hypothesen verwenden können.
Bei der Durchführung eines Likelihood-Ratio-Tests müssen die beiden Modelle verschachtelt werden, was bedeutet, dass das komplexere Modell in ein einfacheres Modell umgewandelt werden kann, indem den Parametern Einschränkungen auferlegt werden. Viele gängige Teststatistiken wie Z-Test, F-Test usw. können mit ähnlichen Konzepten ausgedrückt werden. Wenn die beiden Modelle nicht verschachtelt sind, kann ihre verallgemeinerte Version zur Erkennung verwendet werden.
Angenommen, wir haben eine Zufallsstichprobe aus einer Normalverteilung und möchten testen, ob ihr Mittelwert einem bestimmten Wert entspricht. Die Nullhypothese sei beispielsweise H₀: μ = μ₀
und die Alternativhypothese sei H₁: μ ≠ μ₀
. Zu diesem Zeitpunkt können wir die Wahrscheinlichkeitsfunktion verwenden, um den Test durchzuführen, schließlich die relevanten Statistiken zu erhalten und dann deren Signifikanz abzuschätzen.
Wenn die Nullhypothese abgelehnt wird, bedeutet dies, dass die Alternativhypothese besser mit den Daten übereinstimmt, andernfalls kann die Nullhypothese nicht abgelehnt werden.
Der Satz von Wilks besagt, dass die Wahrscheinlichkeitsverhältnisteststatistik mit zunehmender Stichprobengröße tendenziell eine Zufallsvariable mit einer Chi-Quadrat-Verteilung ist, wenn die Nullhypothese wahr ist. Dadurch können wir das Wahrscheinlichkeitsverhältnis berechnen und es mit dem Chi-Quadrat-Wert vergleichen, der einem bestimmten Signifikanzniveau in verschiedenen hypothetischen Situationen entspricht, als ungefähres statistisches Testschema.
Im wirklichen Leben wird der Likelihood-Ratio-Test häufig in verschiedenen Bereichen eingesetzt, darunter in der Biostatistik, den Sozialwissenschaften und der Psychologie. Spezifische Anwendungsszenarien umfassen die Bewertung der Behandlungseffekte von Patienten, die Analyse von Umweltdaten und die Vorhersage von Markttrends. Dennoch werden wir mit der Entwicklung der Datenwissenschaft und des maschinellen Lernens möglicherweise mit komplexeren und unvollständigeren Datenumgebungen konfrontiert, was die Anwendungsgrenzen traditioneller statistischer Testmethoden in Frage stellt.
Kann der Likelihood-Ratio-Test angesichts der Weiterentwicklung der Technologie weiterhin eine Schlüsselrolle im Bereich der Datenanalyse spielen?