Nous considérons une v.a. \(X\) dont la loi \({\cal L}_{\theta}(X)\) dépend d’un paramètre multidimensionnel \(\theta\in{\mathbb R}^s\). Nous supposons qu’aucune composante de \(\theta\) n’est fonction d’autres composantes. Nous décrivons des tests asymptotiques pour les Alternative 2 soit pour le vecteur entier du paramètre, soit pour une partie de ses composantes. Ces tests sont très liés aux maxima de la vraisemblance dans le cas multidimensionnel. Pour un \(n\)-échantillon \(X_{\bullet}\) le système d’équations de vraisemblance est :
\[ \frac{\partial \ln L(x_{\bullet}\ ;\ \theta)}{\partial \theta_i}=\sum_{j=1}^n \frac{\partial \ln l(x_j\ ;\ \theta)}{\partial \theta_i}=0,\quad \forall i=1,\ \cdots,\ s. \]Si les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 5) sont satisfaites, de la Propriété 1 du maximum de vraisemblance mutivarié nous savons que toute solution du système d’équations de vraisemblance \({\widehat \theta}_n(X_{\bullet})\) est un estimateur convergent vers la «vraie» valeur de \(\theta\), asymptotiquement sans biais, efficace et normal. De plus :
\[ \lim_{n\rightarrow +\infty} {\cal L}_{\theta}\left(n\sideset{^t}{}({\widehat \theta}_n(X_{\bullet})-\theta)I(\theta)({\widehat \theta}_n(X_{\bullet})-\theta)\right)=\chi^2_s, \]où \(I(\theta)\) est la matrice d’information de Fisher associée au paramètre \(\theta\). Nous posons :
\[ T_{Mah}(X_{\bullet},\ \theta)=n\sideset{^t}{}({\widehat \theta}_n(X_{\bullet})-\theta)I(\theta)({\widehat \theta}_n(X_{\bullet})-\theta). \]Cette fonction peut être interprétée comme une distance (de type Mahalanobis) entre l’estimateur du maximum de vraisemblance \({\widehat \theta}_n(X_{\bullet})\) et la vraie valeur du paramètre \(\theta\). Ceci nous permet de mettre en place le test pour l’Alternative 2 dans une version multivariée.
Propriété 1. Soit \({\mathcal L}_{\theta}(X), \theta\in {\mathbb R}^s\) satisfaisant les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 5). Soit \(\theta_0\in{\mathbb R}^s\) et \(\alpha\in \rbrack 0\ ;\ 1\lbrack\) un seuil fixé. Nous considérons l’alternative :
Le test fondé sur la procédure de décision suivante est partiellement asymptotiquement optimal.
La constante \(c_{\alpha}\) est le quantile d’ordre \(1-\alpha\) de la loi \(\chi^2_s\).
Remarque 1. Ce test est asymptotiquement de seuil \(\alpha\). Il est aussi asymptotiquement sans biais, c’est-à-dire qu’à partir d’un certain rang \(n\) la plus petite valeur de la puissance est supérieure au risque de première espèce. De plus, sous des conditions de régularité un peu plus fortes et si \(\theta\) n’est pas trop près de \(\theta_0\) alors il est asymptotiquement le plus puissant pour cette valeur du paramètre.
Remarque 2. La décision est cohérente avec la «réalité». En effet si la réalisation de \( T_{Mah}(X_{\bullet},\ \theta_0)\) est trop grande par rapport aux valeurs «attendues» (\({\widehat \theta}_n(x_{\bullet})\) est trop éloignée de \(\theta_0\)), il est naturel de décider «\({\cal H}_1^{(2)}=\lbrace \theta\not=\theta_0\rbrace\) est vraie». Dans le cas contraire nous décidons «\({\cal H}_0^{(2)}=\lbrace \theta=\theta_0\rbrace\) est vraie».
Nous avons également un test asymptotique sur une partie des composantes de \(\theta\) fondé sur le rapport de vraisemblance. Soit \(r\leq s\) fixé. Nous considérons l’ensemble des paramètres qui s’écrivent \(\theta_0^{(r)}=\sideset{^t}{}(\theta_1^{(r)},\ \cdots,\ \theta_r^{(r)},\ \theta_{r+1},\ \cdots,\ \theta_s)\in {\mathbb R}^s\), dont les \(r\) premières composantes sont égales respectivement aux nombres donnés et fixés \(\theta_1^{(r)},\ \cdots,\ \theta_r^{(r)}\). Soit \(X_{\bullet}\) un \(n\)-échantillon de \(X\). Nous notons \({\widehat \theta}_n^{(r)}\) une solution du système réduit d’équations de vraisemblance :
\[ \frac{\partial \ln L(x_{\bullet}\ ;\ \theta_0^{(r)})}{\partial \theta_i}=\sum_{j=1}^n \frac{\partial \ln l(x_j\ ;\ \theta_0^{(r)})}{\partial \theta_i}=0,\quad \forall i=r+1,\ \cdots,\ s. \]Nous notons \(T_{RV}(x_{\bullet},\ \theta_0^{(r)})=2\ln\dfrac{L(x_{\bullet}\ ;\ {\widehat \theta}_n)}{L(x_{\bullet}\ ;\ {\widehat \theta}_n^{(r)})}\). Nous avons :
Propriété 2. Soit \({\mathcal L}_{\theta}(X), \theta\in {\mathbb R}^s\) satisfaisant les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 5). Soit \(\theta_0^{(r)}\in{\mathbb R}^s\) alors :
\[ \lim_{n\rightarrow +\infty} {\cal L}_{\theta_0^{(r)}}\left(T_{RV}(X_{\bullet},\ \theta_0^{(r)})\right)=\chi^2_r. \]Cette propriété nous permet de mettre en place le test pour l’Alternative 2.
Propriété 3. Soit \({\mathcal L}_{\theta}(X), \theta\in {\mathbb R}^s\) satisfaisant les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 5). Soit \(\theta_0^{(r)}\in{\mathbb R}^s\) et \(\alpha\in \rbrack 0\ ;\ 1\lbrack\) un seuil fixé. Nous considérons l’alternative :
Le test fondé sur la procédure de décision suivante est partiellement asymptotiquement optimal.
La constante \(c_{\alpha}\) est le quantile d’ordre \(1-\alpha\) de la loi \(\chi^2_r\).
Références. Une étude complète des tests paramétriques se trouve dans l’ouvrage de A. Borovkov (1987) et de E. L. Lehmann, J. P. Romano (2005).
Haut de la page.