Dalam statistik, uji rasio kemungkinan adalah metode pengujian hipotesis yang digunakan untuk membandingkan kesesuaian dua model statistik yang bersaing. Dari kedua model ini, satu adalah model pemaksimalan seluruh ruang parameter, dan yang lainnya adalah model yang diperoleh setelah pembatasan tertentu. Ketika data yang diamati mendukung model yang lebih terbatas (yaitu, hipotesis nol), kedua kemungkinan tersebut seharusnya tidak jauh berbeda karena kesalahan pengambilan sampel.
Jadi, tujuan uji rasio kemungkinan adalah untuk menguji apakah rasio kemungkinan ini berbeda secara signifikan dari satu, atau lebih ekuivalen, apakah logaritma naturalnya berbeda secara signifikan dari nol.
Uji ini, yang juga dikenal sebagai uji Wilks, adalah yang paling awal dari tiga metode pengujian hipotesis tradisional, dua lainnya adalah uji pengali Lagrange dan uji Wald. Keduanya dapat dilihat sebagai perkiraan uji rasio kemungkinan dan secara asimtotik setara. Dalam model tanpa parameter yang tidak diketahui, penggunaan uji rasio kemungkinan dapat dibenarkan menggunakan lemma Neyman–Pearson. Perlu disebutkan bahwa lemma tersebut menunjukkan bahwa di antara semua uji yang bersaing, uji ini memiliki daya deteksi tertinggi.
Misalkan kita memiliki model statistik dengan ruang parameter Θ
. Hipotesis nol biasanya menyatakan bahwa parameter θ
berada dalam subset tertentu Θ0
, sedangkan hipotesis alternatif menyatakan bahwa θ
berada dalam komplemen Θ0
. Artinya, hipotesis alternatif menyatakan bahwa θ
termasuk dalam Θ \ Θ0
. Jika hipotesis nol benar, rumus perhitungan untuk statistik uji rasio kemungkinan adalah:
λLR = −2 ln [
supθ∈Θ0 L(θ)
/supθ∈Θ L(θ)
]
Di sini sup
berarti supremum. Karena semua kemungkinan positif, rasio kemungkinan memiliki nilai antara nol dan satu, karena nilai maksimum yang dibatasi tidak dapat melebihi nilai maksimum yang tidak dibatasi. Statistik uji rasio kemungkinan sering dinyatakan sebagai perbedaan logaritma:
λLR = −2 [
ℓ(θ0)
−ℓ(θ^)
]
Di sini, kunci uji rasio kemungkinan adalah uji timbal balik antara berbagai model. Jika model bersarang (yaitu, model yang lebih kompleks dapat diubah menjadi model yang lebih sederhana dengan memberlakukan pembatasan pada parameternya), maka banyak statistik uji umum dapat dilihat sebagai uji rasio logaritma yang analog. Ini termasuk uji Z, uji F, uji G, dan uji chi-kuadrat Pearson, antara lain.
Dalam pengujian hipotesis sederhana versus sederhana, distribusi data sepenuhnya ditentukan di bawah hipotesis nol dan alternatif. Oleh karena itu, variasi uji rasio kemungkinan dapat digunakan, misalnya:
Λ(x) =
L(θ0 | x)
/L(θ1 | x)
Jika Λ > c
, maka jangan tolak hipotesis nol H0
; jika Λ < c
, maka tolak hipotesis nol H0< /code>. Dalam kasus ini, lemma Neyman-Pearson selanjutnya menunjukkan bahwa uji rasio kemungkinan ini adalah yang paling kuat dari semua uji tingkat alfa.
Rasio kemungkinan adalah fungsi dari data dan merupakan indikator kinerja satu model relatif terhadap model lainnya. Jika nilai rasio kemungkinan kecil, itu berarti bahwa probabilitas hasil yang diamati di bawah hipotesis nol jauh lebih rendah daripada di bawah hipotesis alternatif, sehingga menolak hipotesis nol. Sebaliknya, rasio kemungkinan yang tinggi menunjukkan bahwa hasil yang diamati hampir sama mungkinnya di bawah hipotesis nol seperti di bawah hipotesis alternatif, sehingga hipotesis nol tidak dapat ditolak.
Misalkan kita memiliki n sampel dari distribusi normal. Kita ingin menguji apakah rata-rata μ dari populasi adalah nilai tertentu μ0
. Pada saat ini, hipotesis nol dapat dinyatakan sebagai H0: μ = μ0
, dan hipotesis alternatifnya adalah H1: μ ≠ μ0
. Setelah perhitungan yang sesuai, ekspresi rasio kemungkinan dapat diperoleh:
λLR = n ln [ 1 +
t^2 / (n - 1)
]
Kemudian, distribusi spesifik digunakan untuk memandu inferensi berikutnya.
Meskipun distribusi rasio kemungkinan yang tepat sulit ditentukan dalam banyak kasus, teorema Wilkes menyatakan bahwa jika hipotesis nol benar dan ukuran sampel n
cenderung tak terhingga, maka Statistik uji akan mengikuti distribusi chi-kuadrat secara asimtotik. Hal ini memungkinkan kita untuk menghitung rasio kemungkinan dan membandingkannya dengan tingkat signifikansi yang diinginkan.
Apakah mungkin untuk lebih meningkatkan proses pemilihan antara model statistik melalui metode lain?