在統計學中,似然比檢驗(Likelihood-ratio test)是一種用於比較兩個競爭統計模型擬合優度的假設檢驗方法。這兩個模型中,一個是全參數空間的最大化模型,另一個則是經過某些限制後所得到的模型。當觀察到的數據支持更為受限的模型(即零假設)時,這兩個似然度應不會因取樣誤差而有太大不同。
因此,似然比檢驗的目的在於檢測這個似然比是否顯著不同於一,或者更等價地,檢測其自然對數是否顯著不同於零。
這項檢驗,亦被稱為威爾克斯檢驗(Wilks test),是三種傳統假設檢驗方法中最早的一種,另外兩種是拉格朗日乘數檢驗和瓦爾德檢驗。這兩者可以視為似然比檢驗的近似,並且漸近上是等價的。在無未知參數的模型中,似然比檢驗的使用可以透過奈曼-皮爾森引理(Neyman–Pearson lemma)來證明其有效性。值得一提的是,該引理表明在所有競爭檢驗中,這個檢驗的檢驗力是最高的。
假設我們有一個帶有參數空間 Θ
的統計模型。零假設(null hypothesis)通常表示參數 θ
位於指定的子集 Θ0
中,而對立假設則認為 θ
位於 Θ0
的補集。也就是說,對立假設認為 θ
屬於 Θ \ Θ0
。如果零假設成立,其似然比檢驗統計量的計算公式為:
λLR = −2 ln [
supθ∈Θ0 L(θ)
/supθ∈Θ L(θ)
]
這裡的 sup
表示上確界。由於所有的似然度都是正的,因為約束最大值不會超過無約束最大值,因此似然比的值範圍在零與一之間。經常將似然比檢驗統計量表示為對數似然差:
λLR = −2 [
ℓ(θ0)
−ℓ(θ^)
]
在此,似然比檢驗的關鍵在於不同模型之間的相互檢驗。如果這些模型是巢狀的(即較複雜的模型可以通過對其參數施加限制來轉變為較簡單的模型),那麼許多常見的檢驗統計量都可以視為類似的對數似然比檢驗。這包括Z檢驗、F檢驗、G檢驗和皮爾森卡方檢驗等。
在簡單對簡單的假設檢驗中,無論是在零假設還是對立假設下,數據的分布都是完全指定的。因此,可以使用一個變體的似然比檢驗來進行測試,例如:
Λ(x) =
L(θ0 | x)
/L(θ1 | x)
若 Λ > c
,則不拒絕零假設 H0
;若 Λ < c
,則拒絕零假設 H0
。在這種情況下,奈曼-皮爾森引理進一步表明,這個似然比檢驗是所有α水準檢驗中最強有力的。
似然比作為一個與數據相關的函數,它是檢驗一個模型相對於另一模型的指標。如果似然比的值偏小,意味著觀察到的結果在零假設下出現的可能性遠低於在對立假設下的可能性,從而拒絕零假設。相反的,高似然比則表示,觀察到的結果在零假設下出現的可能性幾乎和在對立假設下出現的可能性一樣高,因此無法拒絕零假設。
假設我們擁有n個樣本來自一個正態分布的母體。我們希望檢驗母體的均值μ是否為給定值μ0
。此時,零假設可表示為 H0: μ = μ0
,對立假設為 H1: μ ≠ μ0
。當進行相應的計算後,可以得出似然比的表達式:
λLR = n ln [ 1 +
t^2 / (n - 1)
]
接著,通過特定的分布來引導後續的推論。
儘管在許多情況下,似然比的精確分佈難以確定,但根據威爾克斯定理,如果零假設為真,且樣本大小 n
趨向於無限,則定義的檢驗統計量會漸近於卡方分佈。這使得我們能夠計算似然比並將其與所需的顯著性級別進行比較。
是否有可能透過其他方法進一步改善在統計模型間的選擇過程呢?