Il est très utile de connaître la loi d’un estimateur. Elle permet en effet de calculer les caractéristiques de l’estimateur et de construire un intervalle de confiance du paramètre.
Dans certain cas, cette loi peut être déterminée directement à partir de celle de la v.a. observée \(X\). C’est le cas en particulier, lorsque la somme de l’échantillon \(X_{\bullet}\) apparaît dans l’expression de l’estimateur, pour plusieurs familles de lois de probabilités dites lois stables et qui sont stables par addition comme pour les lois de Bernoulli, de Poisson, Normales, Gamma, etc.
Une autre possibilité est de pouvoir utiliser une convergence en loi, en général, ou le T.L.C., en particulier. Pour ce dernier cas nous introduisons la propriété suivante.
Définition 1. Soit \(T(X_{\bullet})\) un estimateur du paramètre \(\theta\) de la loi \(P_{\theta}\) d’une v.a. observée \(X\). Nous supposons qu’il existe deux fonctions \(a=a(\theta,\ n)\) et \(b=b(\theta,\ n)\) telles que :
\[ \lim_{n\rightarrow +\infty} {\cal L}\left(\frac{T-a}{b}\right)={\cal N}(0\ ;\ 1). \]Nous disons alors que \(T\) est un estimateur asymptotiquement normal, en abrégé a.N..
Remarque. La loi asymptotique sera d’autant plus utile que les fonctions \(a\) et \(b\) ont une expression simple. Dans certains cas il sera possible d’obtenir une amélioration à l’aide d’une transformation (par la stabilisation de la variance par exemple).
Nous présentons deux exemples. Dans le premier nous avons la normalité asymptotique, dans le second nous ne l’avons pas.
Exemple 1. Soit \(X\) une v.a. centrée et possédant un moment d’ordre \(4\) : \({\mathbb E}\lbrack X^4\rbrack =\mu_4 < +\infty.\) Dans ces conditions nous avons \(\sigma^2\lbrack X\rbrack ={\mathbb E}\lbrack X^2\rbrack =\sigma^2 < +\infty\) et \({\mathbb E}\lbrack X\rbrack =\mu=0\). Soit un \(n\)-échantillon \(X_{\bullet}\) ; pour estimer \(\sigma^2\) nous considérons l’estimateur :
\[ T(X_{\bullet})=\frac{1}{n}\sum_{i=1}^nX_i^2. \]Il est alors facile de constater que :
\[ {\mathbb E}\lbrack T\rbrack=\sigma^2\quad{\rm et}\quad \sigma^2\lbrack T\rbrack=\frac{1}{n}(\mu_4-\sigma^4). \]Ainsi \(T\) est un estimateur convergent (cf. Propriété 1) et sans biais de \(\sigma^2\) ; de plus il satisfait aux conditions du T.L.C.. Nous pouvons écrire :
\[ \lim_{n\rightarrow +\infty} {\cal L}\left(\frac{\sqrt{n}(T-\sigma^2)}{\sqrt{(\mu_4-\sigma^4)}}\right)={\cal N}(0\ ;\ 1). \]En posant \(a=\sigma^2\) et \(b=\sqrt{\displaystyle\frac{\mu_4-\sigma^4}{n}}\), nous pouvons conclure que \(T\) est a.N.. \(\quad\square\)
Exemple 2. Soit \(X\) une v.a. de loi uniforme contine \({\cal U}(\rbrack 0\ ;\ \theta\lbrack\), avec \(0 < \theta\). Nous savons alors que :
\[ f_X(t) =\cases{ 0 \quad {\rm si} & \(t \notin \rbrack 0\ ;\ \theta\lbrack,\)\cr \displaystyle\frac{1}{\theta} \quad {\rm si} & \( t \in \rbrack 0\ ;\ \theta\lbrack.\) }\quad {\rm et}\quad F_X(t)=\cases{ 0 \quad {\rm si} & \( t \leq 0 , \)\cr \displaystyle\frac{t}{\theta} \quad {\rm si} &\( 0 < t < \theta,\)\cr 1 \quad {\rm si} &\( \theta \leq t\). } \]Soit un \(n\)-échantillon \(X_{\bullet}\) ; pour estimer \(\theta\) nous considérons l’estimateur :
\[ T(X_{\bullet})=X_{(n)}=\max_{i=1}^nX_i. \]Des propriétés de la statistique d’ordre nous avons :
\[ F_{X_{(n)}}(t)=(F_X(t))^n=\cases{ 0 \quad {\rm si} & \( t \leq 0 , \)\cr \displaystyle\frac{t^n}{\theta^n} \quad {\rm si} &\( 0 < t < \theta,\)\cr 1 \quad {\rm si} &\( \theta \leq t.\) }\quad {\rm et}\quad f_{X_{(n)}}(t) =\cases{ 0 \quad {\rm si} & \( t \notin \rbrack 0\ ;\ \theta\lbrack,\)\cr \displaystyle\frac{nt^{(n-1)}}{\theta^n} \quad {\rm si} &\( t \in \rbrack 0\ ;\ \theta\lbrack.\) } \]Un calcul standard nous donne :
\[ {\mathbb E}\lbrack T\rbrack=\frac{n\theta}{n+1}\ {\underset{n\rightarrow+\infty}\longrightarrow}\theta\quad{\rm et}\quad \sigma^2\lbrack T\rbrack=\frac{n\theta^2}{(n+1)^2(n+2)}\ {\underset{n\rightarrow+\infty}\longrightarrow} 0. \]A partir des f.r., avec un calcul sur les probabilités, nous pouvons montrer que \(\displaystyle\lim_{n\rightarrow +\infty} {\cal L}\left(n(\theta -X_{(n)})\right)=\) \({\cal GA}(1\ ;\ \displaystyle\frac{1}{\theta})\). En conclusion l’estimateur \(T\) est convergent, asymptotiquement sans biais, mais n’est pas asymptotiquement Normal. \(\quad\square\)
Haut de la page.