現代の統計学では、線形モデルの概念により、研究者は変数間の関係を理解し、予測することができます。その中で、一般線型モデル (GLM) は多変量回帰分析で広く使用されていますが、多重線型回帰はこの理論の特殊なケースです。それで、この2つの関係は何でしょうか?
一般線形モデルは、複数の多変量回帰モデルを同時に表現する簡潔な方法であり、独立した統計線形モデルではないことを意味します。つまり、さまざまな多変量回帰モデルを次の形式で記述できます。
Y = X * B + U
ここで、Y は複数の測定変数のデータを含む行列、X は独立変数の観測行列、B はパラメーター行列、U は不確実性または誤差行列です。これらのエラーは通常、観測値間で相関がなく、多変量正規分布に従うと想定されることに留意してください。これらの誤差が多変量正規分布に従わない場合は、一般化線形モデル (GLM) を使用して、Y と U に関する仮定を緩和できます。
一般線形モデルの核となる意味は、ANOVA、ANCOVA、MANOVA、MANCOVA などのさまざまな統計モデルを組み合わせることで、複数の従属変数を処理し、より包括的な分析を提供できることです。この意味で、通常の線形回帰は一般線形モデルの特殊なケースであり、つまり従属変数が 1 つの場合に限定されます。
通常の線形回帰は、複数の独立変数が単一の従属変数に与える影響に焦点を当てた、単純線形回帰に関連するモデルです。
具体的には、通常の線形回帰の基本モデルは、Yi = β0 + β1 * Xi1 + β2 * Xi2 + ... + βp * Xip + εi です。この式を使用して n 個の観測値と p 個の独立変数を考慮すると、Yi は従属変数の i 番目の観測値、Xik は独立変数の対応する観測値、βj は推定されるパラメーター、εi は i 番目の独立した同一分布の正規誤差です。
一般線型モデルでは、従属変数が複数ある場合、多変量回帰の領域に入ります。この場合、各従属変数に対して対応する回帰パラメータが推定されるため、計算上は、すべて同じ説明変数を使用する一連の標準的な多重線形回帰になります。
一般線型モデルでは、残差が条件付き正規分布に従うと仮定しますが、一般化線型モデルではこの仮定を緩和して、さまざまな他の分布を許容します。
さらに詳しく見てみると、一般線型モデルと一般化線型モデル (GLM) の重要な違いは、GLM では、バイナリ ロジスティック回帰、ポアソン回帰などの指数分布族から選択して、より広範囲の残差分布を使用できることです。この批判の重要性は、さまざまな種類の結果変数に直面した場合、研究者は最良の予測効果を得るために適切なモデルを選択できるということです。
たとえば、脳スキャン データの分析では、Y が脳スキャンのデータで構成され、X が実験設計の変数になるという一般線形モデルの応用が見られます。これらのテストは通常、単変量方式で実行され、この文脈では質量単変量解析と呼ばれ、統計的パラメトリック マッピングの研究でよく使用されます。
要約すると、通常の線形回帰は、一般線形モデルとそのファミリーおよびその特殊なケースに関連しており、単純な観察から複雑な多変量関係に移行する方法に重点を置いています。統計分析技術が進歩するにつれて、これらのモデルに隠された宝物を理解することが研究作業の不可欠な部分になるでしょう。しかし、このような発展の傾向において、私たちはおそらくこう考えるべきでしょう。研究や意思決定に影響を与えるために、これらの統計ツールを十分に活用しましたか?