統計学において、尤度比検定は、競合する 2 つの統計モデルの適合度を比較するために使用される仮説検定方法です。これら 2 つのモデルのうち、1 つはパラメータ空間全体の最大化モデルであり、もう 1 つは特定の制約を課した後に得られるモデルです。観測されたデータがより制限されたモデル(つまり、帰無仮説)を支持する場合、2 つの尤度はサンプリング誤差によってそれほど異ならないはずです。
したがって、尤度比検定の目的は、この尤度比が 1 と有意に異なるかどうか、またはより同等に、その自然対数が 0 と有意に異なるかどうかを検定することです。
この検定はウィルクス検定とも呼ばれ、従来の 3 つの仮説検定方法の中で最も古いもので、他の 2 つはラグランジュ乗数検定とワルド検定です。これら 2 つは尤度比検定の近似値として考えることができ、漸近的には同等です。未知のパラメータを持たないモデルでは、ネイマン・ピアソンの補題を使用して尤度比検定の使用を正当化できます。補題は、競合するすべてのテストの中で、このテストが最も高い検出力を持っていることを示していることに言及する価値があります。
パラメータ空間 Θ
を持つ統計モデルがあるとします。帰無仮説は通常、指定されたサブセット θ
内のパラメータ θ
を表し、反対の仮定は θ
が θ000 に位置すると信じています。 code>の補数。つまり、対立は
θ
が θ \ θ0
に属することを前提としています。ゼロ休暇が確立されている場合、検査統計量よりも量の計算式は次のようになります。
λlr = λ2 ln [
Supθ∈θ0 L (θ)
/SUPθ∈θ L (θ)
ここで sup
は最高を意味します。すべての「いいね!」が正の値であるため、最大制約は制約なしの最大値を超えず、付与率の範囲は 0 から 1 の間になります。検査の統計量に対する量として、差として表現されることが多い。
λlr = λ2 [
ℓ (θ0)
−ℓ (θ^)
]
ここで、テストの鍵となるのは、異なるモデル間の相互テストにあるということです。モデルがネストされている場合(つまり、より複雑なモデルを、そのパラメータに制限を課すことでより単純なモデルに変換できる場合)、多くの一般的な検定統計量は、類似の対数尤度比検定として見ることができます。これには、Z 検査、F テスト、G 検査、ピルソン カード検査が含まれます。
単純仮説対単純仮説検定では、帰無仮説と対立仮説の両方においてデータの分布が完全に指定されます。したがって、尤度比検定のバリエーションを使用できます。たとえば、次のようになります。
Λ(x) =
L(θ0 | x)
/L(θ1 | x)
Λ > c
の場合、帰無仮説 H0
を棄却しません。Λ < c
の場合、帰無仮説 H0< /code>。この場合、ネイマン-ピアソンの補題は、この尤度比検定がすべてのアルファレベル検定の中で最も強力であることをさらに示しています。
尤度比はデータの関数であり、あるモデルと別のモデルのパフォーマンスを比較した指標です。尤度比の値が小さい場合、帰無仮説のもとで観測される結果の確率は対立仮説のもとで観測される結果の確率よりもはるかに低いことを意味し、したがって帰無仮説は棄却されます。逆に、尤度比が高いということは、帰無仮説の下で観測された結果が対立仮説の下で起こる可能性とほぼ同じであることを示すため、帰無仮説を棄却することはできません。
正規分布から n 個のサンプルがあるとします。母集団の平均 μ が指定された値 μ0
であるかどうかをテストします。このとき、帰無仮説は H0: μ = μ0
と表され、対立仮説は H1: μ ≠ μ0
と表されます。対応する計算の後、尤度比の式が得られます。
λLR = n ln [ 1 +
t^2 / (n - 1)
]
次に、特定の分布を使用して、後続の推論を導きます。
尤度比の正確な分布は多くの場合決定が難しいが、ウィルクスの定理によれば、帰無仮説が真でサンプルサイズn
が無限大に近づく場合、検定統計量は漸近的にはカイ二乗分布に従います。これにより、尤度比を計算し、それを目的の有意水準と比較できるようになります。
他の方法によって統計モデル間の選択プロセスをさらに改善することは可能ですか?