le logo du site

7. Tests classiques d’hypothèses.

7.3. Test fondamental : alternatives d’hypothèses simples.

Soit \(X\) une v.a. dont la loi ne peut être que \({\cal L}_0\) ou \({\cal L}_1\) exclusivement. Nous allons donner le meilleur test de l’alternative d’hypothèses simples :

Ces deux lois sont caractérisées par :

\[ l_i(x)= \begin{cases} P_i(X=x) & \text{(cas discret)},\\ f_i(x) & \text{(cas continu),} \end{cases} \]

pour \(i=0\) ou \(1\). Soit \(X_{\bullet}=(X_1,\cdots, X_n)\) un \(n\)-échantillon de \(X\). La fonction de vraisemblance s’écrit :

\[ L_i(x_{\bullet})=\prod_{j=1}^n l_i(x_j),\quad i=0\ \text{ou}\ 1. \]

Définition 1. Pour un seuil \(\alpha\in\rbrack 0\ ;\ 1\lbrack\) donné, nous appelons test du rapport de vraisemblance ou test de Neyman-Pearson de \({\cal H}_0\) contre \({\cal H}_1\), le test, noté \(\psi^{\star}\), défini par :

\[ \psi^{\star}(x_{\bullet})= \begin{cases} 0 & {\it si} & L_1(x_{\bullet}) \leq k_{\alpha}L_0(x_{\bullet}) ,\\ 1 & {\it sinon.} \end{cases} \]

où \(k_{\alpha}\) est le plus petit nombre tel que \(\alpha_{\psi^{\star}}({\cal L}_0)={\mathbb E}_{{\cal L}_0}\lbrack\psi^{\star}(X_{\bullet})\rbrack = P_{{\cal L}_0}\Big(k_{\alpha}L_0(X_{\bullet})< L_1(X_{\bullet})\Big)\leq \alpha\).

Remarque 1. Le nombre \(k_{\alpha}\) existe toujours. En effet la fonction \(S(t)=P_{{\cal L}_0}\big(L_1(X_{\bullet})> tL_0(X_{\bullet})\big)\) est décroissante sur \({\mathbb R}_+\) ; elle varie de \(1\) à \(0\). Pour les lois continues \(S(t)\) est continue ; il est clair alors qu’il existe un nombre \(t=k_{\alpha}\) où l’égalité avec \(\alpha\) est atteinte ; le risque de première espèce du test est exactement le seuil \(\alpha\). Pour les lois discrètes l’égalité avec \(\alpha\) est rarement atteinte ; le risque de première espèce du test est en général tel que \(\alpha_{\psi^{\star}}({\cal L}_0) < \alpha\). Ceci ne porte pas, concrètement, à conséquence. Cependant s’il est impératif d’atteindre \(\alpha\), nous envisageons le test aléatoire suivant :

\[ \psi^{\star}_{al}(x_{\bullet})= \begin{cases} 0 & \text{si} & L_1(x_{\bullet}) < k_{\alpha}L_0(x_{\bullet}) ,\\ \gamma_{\alpha} & \text{si} & L_1(x_{\bullet}) = k_{\alpha}L_0(x_{\bullet}) ,\\ 1 & \text{sinon.} \end{cases} \]

avec \(\gamma_{\alpha}\in\lbrack 0\ ;\ 1\lbrack\) et \(k_{\alpha}\) les nombres qui satisfont à l’équation :

\[ \alpha=\alpha_{\psi^{\star}_{al}}({\cal L}_0)= {\mathbb E}_{{\cal L}_0}\lbrack\psi^{\star}_{al}(X_{\bullet})\rbrack=P_{{\cal L}_0}\Big(L_1(X_{\bullet}) > k_{\alpha}L_0(X_{\bullet})\Big)+\gamma_{\alpha}P_{{\cal L}_0}\Big(L_1(X_{\bullet}) = k_{\alpha}L_0(X_{\bullet})\Big). \]

Nous détaillerons la démarche dans le deuxième exemple ci-dessous.

Exemple 1. Les hypothèses sont constituées de deux lois Normales. Nous avons \({\cal L}_0={\cal N}(\mu_0\ ;\ 1)\) et \({\cal L}_1={\cal N}(\mu_1\ ;\ 1)\), avec \(\mu_0 < \mu_1\), par exemple. Nous testons l’alternative :

Le rapport de vraisemblance s’écrit :

\[ \dfrac{L_1(x_{\bullet})}{L_0(x_{\bullet})}=\prod_{j=1}^n\dfrac{\exp(-\frac{1}{2}(x_j-\mu_1)^2)\sqrt{2\pi}}{\sqrt{2\pi}\exp(-\frac{1}{2}(x_j-\mu_0)^2)}= \exp\left((\mu_1-\mu_0)\sum_{j=1}^nx_j-\dfrac{n}{2}(\mu_1^2-\mu_0^2)\right). \]

Nous avons l’équivalence :

\[ \dfrac{L_1(x_{\bullet})}{L_0(x_{\bullet})} > k_{\alpha}\Longleftrightarrow \sum_{j=1}^nx_j > \dfrac{n}{2}(\mu_1+\mu_0)+\dfrac{\ln(k_{\alpha})}{\mu_1-\mu_0}=c_{\alpha}. \]

De la Propriété 2 des lois Normales nous savons que \({\cal L}(\displaystyle\sum_{j=1}^nX_j)={\cal N}(n\mu\ ; n)\), d’où

\[ P_{\mu_0}\big(L_1(X_{\bullet})> k_{\alpha}L_0(X_{\bullet})\big)=P_{\mu_0}\big(\sum_{j=1}^nX_j > c_{\alpha}\big)=P_{\mu_0}\big(\frac{\sum_{j=1}^nX_j-n\mu_0}{\sqrt{n}} > \frac{c_{\alpha}-n\mu_0}{\sqrt{n}}\big)=\alpha \]

La commande de R pnorm nous donne alors, pour \(\alpha= 5 \%\), par exemple, la valeur critique \(c_{\alpha}=n\mu_0+1,6449\sqrt{n}\). Le test du rapport de vraisemblance au seuil de \(5 \%\) s’écrit alors :

\[ \psi^{\star}(x_{\bullet})= \begin{cases} 0 & \text{si} & \displaystyle\sum_{j=1}^nx_j \leq n\mu_0+1,6449\sqrt{n} ,\\ 1 & \text{sinon.} \end{cases} \]

Application numérique. Supposons \(\mu_0=10\), \(\mu_1=15\) et \(n=10\). Nous avons observé : \(9,50 - 8,62 - 11,29 - 11 - 8,89 - 9,24 - 10,92 - 10,27 - 10,82 - 10,83\). Comme \(\displaystyle\sum_{j=1}^nx_j = 101,38\) et \(c_{\alpha}=10\times 10+1,6449\sqrt{10}=105,2016\), nous avons \( \psi^{\star}(x_{\bullet})=0\). Nous décidons «\({\cal H}_0=\lbrace \mu=10\rbrace\) est vraie » ; le test est non significatif. Nous calculons le risque de deuxième espèce qui est associé à cette décision.

\[ \beta_{\psi^{\star}}(\mu_1)=P_{\mu_1}\Big(\sum_{j=1}^nX_j \leq 10\times 10+1,6449\sqrt{10}\Big)=P_{{\cal N}(0\ ;\ 1)}\Big(Z\leq -5\sqrt{10}+1,6449\Big)\approx 0. \]

Le risque est très inférieur à \(20 \%\), nous pouvons donc faire confiance à notre décision.\(\quad\square\)

Exemple 2. Les hypothèses sont constituées de deux lois de Poisson. Nous avons \({\cal L}_0={\cal P}(\lambda_0)\) et \({\cal L}_1={\cal P}(\lambda_1)\). Nous supposons \(\lambda_0 < \lambda_1\). Nous testons l’alternative :

Le rapport de vraisemblance s’écrit :

\[ \dfrac{L_1(x_{\bullet})}{L_0(x_{\bullet})}=\prod_{j=1}^n\dfrac{\exp(-\lambda_1)\lambda_1^{x_j}x_j!}{x_j!\exp(-\lambda_0)\lambda_0^{x_j}}= \Big(\dfrac{\lambda_1}{\lambda_0}\Big)^{\sum_{j=1}^nx_j}\exp-(\lambda_1-\lambda_0). \]

Nous avons l’équivalence :

\[ \dfrac{L_1(x_{\bullet})}{L_0(x_{\bullet})} > k_{\alpha}\Longleftrightarrow \sum_{j=1}^nx_j > \dfrac{\lambda_1-\lambda_0+\ln(k_{\alpha})}{\ln(\lambda_1)-\ln(\lambda_0)}=c_{\alpha}. \]

De la Propriété 3 des lois de Poisson nous savons que \({\cal L}(\displaystyle\sum_{j=1}^nX_j)={\cal P}(n\lambda)\), d’où l’égalité \(\alpha_{\psi^{\star}}({\cal L}_0)=\alpha\) s’écrit :

\[ P_{\lambda_0}\big(L_1(X_{\bullet}) > k_{\alpha}L_0(X_{\bullet})\big)=P_{\lambda_0}\Big(\sum_{j=1}^nX_j > c_{\alpha}\Big)=\alpha \]

En général il n’existe pas de \( c_{\alpha}\) satisfaisant l’équation précédente. Nous choisissons le plus petit \(c_{\alpha}\) vérifiant \(P_{\lambda_0}\Big(\displaystyle\sum_{j=1}^nX_j > c_{\alpha}\Big)\leq\alpha\). Le test du rapport de vraisemblance au seuil de \(\alpha\) s’écrit alors :

\[ \psi^{\star}(x_{\bullet})= \begin{cases} 0 & \text{si} & \displaystyle\sum_{j=1}^nx_j \leq c_{\alpha} ,\\ 1 & \text{sinon.} \end{cases} \]

Application numérique. Nous avons \(\lambda_0=0,5\) et \(\lambda_1=2\). Nous avons observé \(n=10\) valeurs : \(1 - 0 - 1 - 0 - 1 - 2 - 0 - 0 - 0 - 2\) ; il s’ensuit \(\displaystyle\sum_{j=1}^nx_j = 7\). Comme \({\cal L}(\displaystyle\sum_{j=1}^{10}X_j)={\cal P}(10\times0,5)\), nous utilisons la commande de R ppois qui nous donne alors :

\[ P_{5}\Big(\sum_{j=1}^{10}X_j > 9\Big)=0,03182806 \quad P_{5}\Big(\sum_{j=1}^{10}X_j > 8\Big)=0,06809363. \]

Nous obtenons, pour \(\alpha=0,05\), la valeur critique \(c_{\alpha}=9\). Nous décidons donc «\({\cal H}_0=\lbrace \lambda=0,5\rbrace\) est vraie » ; le test est non significatif. Le seuil exact du test est \(\alpha=0,031828\). Nous calculons le risque de deuxième espèce qui est associé à cette décision.

\[ \beta_{\psi^{\star}}(\lambda_1)=P_{20}\Big(\sum_{j=1}^{10}X_j \leq 8\Big)=0,002087. \]

Le risque est négligeable, nous pouvons donc faire confiance à notre décision.

Si nous souhaitons obtenir un test de seuil exactement \(\alpha=0,05\), nous construisons un test aléatoire de la manière suivante. Nous avons l’équation :

\[ 0,05=\alpha_{\psi^{\star}_{al}}(5)={\mathbb E}_{5}\lbrack\psi^{\star}_{al}(X_{\bullet})\rbrack=P_{5}\big(\sum_{j=1}^{10}X_j > 9\Big)+\gamma_{0,05}P_{5}\big(\sum_{j=1}^{10}X_j = 9\Big). \]

Comme \(P_{5}\Big(\sum_{j=1}^{10}X_j > 9\Big)=0,03182806\) et \(P_{5}\Big(\sum_{j=1}^{10}X_j = 9\Big)=0,03626558\), nous en déduisons \(\gamma_{0,05}=0,5010796\). Le test aléatoire s’écrit alors :

\[ \psi^{\star}_{al}(x_{\bullet})= \begin{cases} 0 & \text{si} & \displaystyle\sum_{j=1}^{10}X_j < 9 ,\\ 0,5010796 & \text{si} & \displaystyle\sum_{j=1}^{10}X_j = 9 ,\\ 1 & \text{si} & \displaystyle\sum_{j=1}^{10}X_j > 9. \end{cases} \]

Nous avons observé \(\displaystyle\sum_{j=1}^nx_j = 7\) ; notre décision reste la même. Si nous avions observé \(\displaystyle\sum_{j=1}^nx_j = 9\), nous aurions dû réaliser une expérience avec une probabilité de succès de \(0,5010796\) (presque pile ou face), avec par exemple une simulation \(u\) de la loi uniforme \({\cal U}(\lbrack 0\ ;\ 1\rbrack)\), et décider «\({\cal H}_1=\lbrace \lambda=2\rbrace\) est vraie» si \(u\leq 0,5010796\). Le risque de deuxième espèce est :

\[ \beta_{\psi^{\star}}(\lambda_1)=(1-0,5010796)P_{20}\Big(\sum_{j=1}^{10}X_j = 9\Big)+P_{20}\Big(\sum_{j=1}^{10}X_j \leq 8\Big)=0,02018064. \]

Ce risque est très faible et nous pouvons faire confiance à notre décision.\(\quad\square\)

Revenons au cas général.

Propriété 1. Le test non aléatoire \(\psi^{\star}\) du rapport de vraisemblance pour l’alternative d’hypothèses simples est le plus puissant parmi tous les tests de seuil \(\alpha_{\psi^{\star}}({\cal L}_0)\).

Pour le voir il suffit de considérer un autre test \(\psi\) de même seuil, \(\alpha_{\psi}({\cal L}_0)\leq\alpha_{\psi^{\star}}({\cal L}_0)\) et de constater que la fonction :

\[ h(x)=(\psi^{\star}(x)-\psi(x))(L_1(x)-k_{\alpha}L_0(x)) \]

est positive sur tout \({\mathbb R}^n\). En intégrant sur cet ensemble nous en déduisons :

\[ {\mathbb E}_{{\cal L}_1}\lbrack\psi^{\star}(X_{\bullet})\rbrack -{\mathbb E}_{{\cal L}_1}\lbrack\psi(X_{\bullet})\rbrack\geq k_{\alpha}({\mathbb E}_{{\cal L}_0}\lbrack\psi^{\star}(X_{\bullet})\rbrack- {\mathbb E}_{{\cal L}_0}\lbrack\psi(X_{\bullet})\rbrack). \]

S’ensuit le résultat annoncé. Remarquons que le test aléatoire \(\psi^{\star}_{al}\) a la même puissance pour un seuil fixé \(\alpha\) que le test non aléatoire correspondant.\(\quad\square\)

Propriété 2. Le test \(\psi^{\star}\) du rapport de vraisemblance pour l’alternative d’hypothèses simples est sans biais au seuil \(\alpha_{\psi^{\star}}({\cal L}_0)\).

Il suffit de considérer le test \({\widetilde \psi}({\cal L})\equiv \alpha_{\psi^{\star}}({\cal L}_0)\), pour \({\cal L}={\cal L}_0\) et \({\cal L}_1\), et d’appliquer la propriété précédente pour avoir \({\mathbb E}_{{\cal L}_0}\lbrack\psi^{\star}(X_{\bullet})\rbrack\leq {\mathbb E}_{{\cal L}_1}\lbrack\psi^{\star}(X_{\bullet})\rbrack\).\(\quad\square\)

Propriété 3. Sous la condition \({\mathbb E}_{{\cal L1}}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack < +\infty\), le test \(\psi^{\star}\) du rapport de vraisemblance pour l’alternative d’hypothèses simples est convergent.

Pour établir que \(\lim_{n\rightarrow +\infty}\beta_{\psi^{\star}, \alpha, n}({\cal L_1})=0\), nous utilisons le fait que la stricte concavité de la fonction logarithme implique \({\mathbb E}_{{\cal L}_1}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack > 0\) et que \(\displaystyle\lim_{n\rightarrow +\infty} \frac{\ln(k_{\alpha})}{n}=0\), pour obtenir, pour tout \(\epsilon > 0\) aussi petit que nous voulons, pour tout \(n\) au-delà d’un certain rang, les majorations :

\[ \beta_{\psi^{\star},\alpha,n}({\cal L}_1)\leq P_{{\cal L}_1}\Big(\frac{L_1(X_{\bullet})}{L_0(X_{\bullet})}\leq k_{\alpha}\Big)\leq \] \[ \leq P_{{\cal L}_1}\Big(\frac{1}{n}\sum_{j=1}^n\ln(\frac{l_1(X_j)}{l_0(X_j)}) -{\mathbb E}_{{\cal L_1}}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack\leq \frac{\ln(k_{\alpha})}{n}-{\mathbb E}_{{\cal L_1}}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack\Big)\leq \] \[ \leq P_{{\cal L}_1}\Big(\Big\lvert\frac{1}{n}\sum_{j=1}^n\ln(\frac{l_1(X_j)}{l_0(X_j)})-{\mathbb E}_{{\cal L_1}}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack\Big\rvert\geq \frac{\epsilon}{2}\Big). \]

La loi forte des grands nombres appliquée à notre condition nous montre que la limite de ce dernier terme lorsque \(n\rightarrow +\infty\) est \(0\). \(\quad\square\)

Remarque 2. Pour les lois exponenielles la condition de convergence se ramène à \({\mathbb E}\lbrack T(X_{\bullet})\rbrack < +\infty\), qui est satisfaite.

Exemple 1. Un calcul simple nous montre que :

\[ {\mathbb E}_{{\cal L_1}}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack = (\mu_1-\mu_0){\mathbb E}_{{\cal L_1}}\lbrack X\rbrack-\frac{\mu_1^2-\mu_0^2}{2}=\frac{1}{2}(\mu_1-\mu_0)^2 < +\infty. \]

Donc le test \(\psi^{\star}\) de

est le plus puissant, il est sans biais et convergent. \(\quad\square\)

Exemple 2. Un calcul simple nous montre que :

\[ {\mathbb E}_{{\cal L_1}}\left\lbrack \ln(\dfrac{l_1(X)}{l_0(X)})\right\rbrack = \lambda_1\ln(\frac{\lambda_1}{\lambda_0})-(\lambda_1-\lambda_0) < +\infty. \]

Nous en déduisons que les tests \(\psi^{\star}\) et \(\psi^{\star}_{al}\) de

sont les plus puissants pour leur seuil respectif, ils sont sans biais et convergents. \(\quad\square\)

Références. Une étude complète des tests paramétriques se trouve dans les ouvrages de C. Fourgeaud, A. Fuchs (1967) et de E. L. Lehmann, J. P. Romano (2005).

Haut de la page.