Le saviez-vous ? Ce test peut nous aider à faire un choix éclairé entre deux modèles concurrents !

En statistique, le test du rapport de vraisemblance est une méthode de test d'hypothèse utilisée pour comparer la qualité de l'ajustement de deux modèles statistiques concurrents. Parmi ces deux modèles, l’un est un modèle de maximisation de l’ensemble de l’espace des paramètres, et l’autre est un modèle obtenu après certaines restrictions. Lorsque les données observées soutiennent le modèle le plus restreint (c’est-à-dire l’hypothèse nulle), les deux vraisemblances ne devraient pas beaucoup différer en raison de l’erreur d’échantillonnage.

Ainsi, le but du test du rapport de vraisemblance est de vérifier si ce rapport de vraisemblance est significativement différent de un, ou, de manière plus équivalente, si son logarithme naturel est significativement différent de zéro.

Ce test, également connu sous le nom de test de Wilks, est la plus ancienne des trois méthodes traditionnelles de test d'hypothèses, les deux autres étant le test du multiplicateur de Lagrange et le test de Wald. Les deux peuvent être considérés comme des approximations du test du rapport de vraisemblance et sont asymptotiquement équivalents. Dans les modèles sans paramètres inconnus, l’utilisation du test du rapport de vraisemblance peut être justifiée à l’aide du lemme de Neyman-Pearson. Il convient de mentionner que le lemme montre que parmi tous les tests concurrents, ce test a le pouvoir de détection le plus élevé.

Définition générale

Supposons que nous ayons un modèle statistique avec un espace de paramètres Θ. L'hypothèse nulle stipule généralement que le paramètre θ est dans un sous-ensemble spécifié Θ0, tandis que l'hypothèse alternative stipule que θ est dans Θ0 Complément de . Autrement dit, l’hypothèse alternative soutient que θ appartient à Θ \ Θ0. Si l'hypothèse nulle est vraie, la formule de calcul de la statistique du test du rapport de vraisemblance est :

λLR = −2 ln [ supθ∈Θ0 L(θ) / supθ∈Θ L(θ) ]

Ici, sup signifie suprême. Étant donné que toutes les vraisemblances sont positives, les rapports de vraisemblance ont des valeurs comprises entre zéro et un, puisque le maximum contraint ne peut pas dépasser le maximum non contraint. La statistique du test du rapport de vraisemblance est souvent exprimée comme la différence de vraisemblance logarithmique :

λLR = −2 [ ℓ(θ0) − ℓ(θ^) ]

Ici, la clé du test du rapport de vraisemblance est le test mutuel entre différents modèles. Si les modèles sont imbriqués (c'est-à-dire que le modèle le plus complexe peut être transformé en un modèle plus simple en imposant des restrictions sur ses paramètres), alors de nombreuses statistiques de test courantes peuvent être considérées comme des tests de rapport de vraisemblance logarithmique analogues. Cela inclut, entre autres, le test Z, le test F, le test G et le test du chi carré de Pearson.

Cas hypothétique simple

Dans les tests d'hypothèses simples contre simples, la distribution des données est entièrement spécifiée sous les hypothèses nulles et alternatives. Par conséquent, une variante du test du rapport de vraisemblance peut être utilisée, par exemple :

Λ(x) = L(θ0 | x) / L(θ1 | x)

Si Λ > c, alors ne pas rejeter l'hypothèse nulle H0 ; si Λ < c, alors rejeter l'hypothèse nulle H0< /code>. Dans ce cas, le lemme de Neyman-Pearson montre en outre que ce test de rapport de vraisemblance est le plus puissant de tous les tests de niveau alpha.

Comprendre le test du rapport de vraisemblance

Le rapport de vraisemblance est une fonction des données et constitue un indicateur de la performance d’un modèle par rapport à un autre. Si la valeur du rapport de vraisemblance est faible, cela signifie que la probabilité du résultat observé sous l’hypothèse nulle est bien inférieure à celle sous l’hypothèse alternative, rejetant ainsi l’hypothèse nulle. À l’inverse, un rapport de vraisemblance élevé indique que le résultat observé est presque aussi probable sous l’hypothèse nulle que sous l’hypothèse alternative, de sorte que l’hypothèse nulle ne peut pas être rejetée.

Exemple concret

Supposons que nous ayons n échantillons provenant d’une distribution normale. Nous souhaitons tester si la moyenne μ de la population est une valeur donnée μ0. À ce stade, l'hypothèse nulle peut être exprimée comme H0 : μ = μ0, et l'hypothèse alternative est H1 : μ ≠ μ0. Après les calculs correspondants, l'expression du rapport de vraisemblance peut être obtenue :

λLR = n ln [ 1 + t^2 / (n - 1) ]

Ensuite, la distribution spécifique est utilisée pour guider les inférences ultérieures.

Distribution asymptotique : théorème de Wilkes

Bien que la distribution exacte du rapport de vraisemblance soit difficile à déterminer dans de nombreux cas, le théorème de Wilkes stipule que si l'hypothèse nulle est vraie et que la taille de l'échantillon n tend vers l'infini, alors la statistique de test sera suivent asymptotiquement une distribution du chi carré. Cela nous permet de calculer le rapport de vraisemblance et de le comparer au niveau de signification souhaité.

Est-il possible d’améliorer encore le processus de choix entre les modèles statistiques grâce à d’autres méthodes ?

Trending Knowledge

Qu’est-ce que le test du rapport de vraisemblance ? Comment nous aide-t-il à trouver des modèles cachés dans les données ?
En statistiques, le test du rapport de vraisemblance est une méthode de test d'hypothèse qui compare l'ajustement de deux modèles statistiques concurrents afin de déterminer lequel est le plus cohéren
nan
Depuis Magic: The Gathering a été publié pour la première fois par Wizards of the Coast en 1993, le jeu de cartes a lancé un grand nombre de sets et de cartes.3 à 4 sets principaux sont lancés chaque
Pourquoi les statistiques semblent-elles avoir le pouvoir mystérieux de révéler la vérité sur des hypothèses ?
Les statistiques constituent un outil puissant pour aider les individus à prendre des décisions éclairées dans un contexte d'incertitude. Dans ce processus, le test du rapport de vraisemblance joue un

Responses