在统计学中,似然比检验(Likelihood-ratio test)是一种用于比较两个竞争统计模型拟合优度的假设检验方法。这两个模型中,一个是全参数空间的最大化模型,另一个则是经过某些限制后所得到的模型。当观察到的数据支持更为受限的模型(即零假设)时,这两个似然度应不会因取样误差而有太大不同。
因此,似然比检验的目的在于检测这个似然比是否显著不同于一,或者更等价地,检测其自然对数是否显著不同于零。
这项检验,亦被称为威尔克斯检验(Wilks test),是三种传统假设检验方法中最早的一种,另外两种是拉格朗日乘数检验和瓦尔德检验。这两者可以视为似然比检验的近似,并且渐近上是等价的。在无未知参数的模型中,似然比检验的使用可以透过奈曼-皮尔森引理(Neyman–Pearson lemma)来证明其有效性。值得一提的是,该引理表明在所有竞争检验中,这个检验的检验力是最高的。
假设我们有一个带有参数空间 Θ
的统计模型。零假设(null hypothesis)通常表示参数θ
位于指定的子集Θ0
中,而对立假设则认为θ
位于Θ0
的补集。也就是说,对立假设认为 θ
属于 Θ \ Θ0
。如果零假设成立,其似然比检验统计量的计算公式为:
λLR = −2 ln [
supθ∈Θ0 L(θ)
/supθ∈Θ L(θ)
]
这里的 sup
表示上确界。由于所有的似然度都是正的,因为约束最大值不会超过无约束最大值,因此似然比的值范围在零与一之间。经常将似然比检验统计量表示为对数似然差:
λLR = −2 [
ℓ(θ0)
−ℓ(θ^)
]
在此,似然比检验的关键在于不同模型之间的相互检验。如果这些模型是巢状的(即较复杂的模型可以通过对其参数施加限制来转变为较简单的模型),那么许多常见的检验统计量都可以视为类似的对数似然比检验。这包括Z检验、F检验、G检验和皮尔森卡方检验等。
在简单对简单的假设检验中,无论是在零假设还是对立假设下,数据的分布都是完全指定的。因此,可以使用一个变体的似然比检验来进行测试,例如:
Λ(x) =
L(θ0 | x)
/L(θ1 | x)
若Λ > c
,则不拒绝零假设H0
;若Λ < c
,则拒绝零假设H0< /code>。在这种情况下,奈曼-皮尔森引理进一步表明,这个似然比检验是所有α水准检验中最强有力的。
似然比作为一个与数据相关的函数,它是检验一个模型相对于另一模型的指标。如果似然比的值偏小,意味着观察到的结果在零假设下出现的可能性远低于在对立假设下的可能性,从而拒绝零假设。相反的,高似然比则表示,观察到的结果在零假设下出现的可能性几乎和在对立假设下出现的可能性一样高,因此无法拒绝零假设。
假设我们拥有n个样本来自一个正态分布的母体。我们希望检验母体的均值μ是否为给定值μ0
。此时,零假设可表示为 H0: μ = μ0
,对立假设为 H1: μ ≠ μ0
。当进行相应的计算后,可以得出似然比的表达式:
λLR = n ln [ 1 +
t^2 / (n - 1)
]
接着,通过特定的分布来引导后续的推论。
尽管在许多情况下,似然比的精确分布难以确定,但根据威尔克斯定理,如果零假设为真,且样本大小n
趋向于无限,则定义的检验统计量会渐近于卡方分布。这使得我们能够计算似然比并将其与所需的显著性级别进行比较。
是否有可能透过其他方法进一步改善在统计模型间的选择过程呢?