le logo du site

6. Estimation.

6.2.1. Méthode des moments.

Soit \(X\) une v.a. dont la loi dépend d’un paramètre \(\theta \in \Theta\). Nous supposons qu’il existe deux fonctions \(h_1\) et \(h_2\), entièrement connues, telles que :

\[ {\mathbb E}_{\theta}\lbrack h_1(X)\rbrack=h_2(\theta) ,\quad \forall \theta \in \Theta. \]

Soit \(X_{\bullet}=(X_1,\ \cdots,\ X_n)\) un \(n-\)échantillon de \(X\).

Définition 1. Nous appelons estimateur de \(h_2(\theta)\) obtenu par la méthode des moments la statistique

\[ T(X_{\bullet}) = \frac{1}{n}\sum_{i=1}^nh_1(X_i). \]

Interprétation. La moyenne observée est utilisée pour estimer la moyenne théorique.

Propriété 1. La statistique précédente \(T(X_{\bullet})\) est un estimateur sans biais et convergent de \(h_2(\theta)\). De plus, si \(\sigma^2_{\theta}\lbrack h_1(X)\rbrack < +\infty,\ \forall \theta \in \Theta\), alors elle est a.N. et

\[ {\cal L}_{\theta}\Big(\sqrt{n}\frac{T(X_{\bullet})-h_2(\theta)}{\sigma_{\theta}\lbrack h_1(X)\rbrack}\Big)\underset{n\rightarrow+\infty}\longrightarrow{\cal N}(0\ ;\ 1),\quad \forall \theta \in \Theta. \]

Le fait que l’estimateur soit sans biais s’obtient de la linéarité de l’espérance. La Propriété 2 de la loi forte des grands nombres implique sa convergence et le Théorème de la Limite Centrale celle de la normalité asymptotique.\(\quad\square\)

Exemple. Soit \(X_{\bullet}=(X_1,\ \cdots,\ X_n)\) un \(n-\)échantillon de \(X\) de loi Log-Normale \(Log-{\cal N}(0\ ;\ 0\ ;\ \sigma^2)\). Nous étudions le paramètre \(\sigma\). Nous savons que \({\cal L}(\ln(X))={\cal N}(0\ ;\ \sigma^2)\) et par conséquent

\[ {\mathbb E}_{\sigma}\lbrack (\ln(X))^2\rbrack=\sigma^2 ,\quad \forall \sigma \in {\mathbb R}_+^*. \]

La supposition ci-dessus est satisfaite avec

\[ h_1(t)=(\ln(t))^2\quad {\rm et}\quad h_2(t)=t^2. \]

Ainsi la propriété ci-dessus nous permet d’affirmer que la statistique

\[ T(X_{\bullet}) = \frac{1}{n}\sum_{i=1}^n(\ln(X_i))^2, \]

est un estimateur sans biais et convergent de \(\sigma^2\). De plus, comme la Propriété 1 de la loi normale à une dimension implique

\[ {\mathbb V}ar_{\sigma}\lbrack (\ln(X))^2\rbrack=2\sigma^4 < +\infty ,\quad \forall \sigma \in {\mathbb R}_+^*, \]

Cet estimateur est asyptotiquement normal et

\[ {\cal L}_{\sigma}\Big(\sqrt{n}\frac{T(X_{\bullet})-\sigma^2}{\sigma^2\sqrt{2}}\Big)\underset{n\rightarrow+\infty}\longrightarrow{\cal N}(0\ ;\ 1),\quad \forall \sigma \in {\mathbb R}_+^*. \quad\square \]

Il est tentant de considérer la racine carrée de la statistique précédente pour construire un estimateur sans biais de \(\sigma\). Mais il nous faut prendre quelques précautions.

Propriété 2. Si la fonction \(h_2^{-1}\) existe et si elle est continue, alors

\[ T_1(X_{\bullet}) = h_2^{-1}\Big(\frac{1}{n}\sum_{i=1}^nh_1(X_i)\Big), \]

est un estimateur convergent de \(\theta\), mais pas sans biais en général.

Pour obtenir la convergence nous utilisons la Propriété 2 de la convergence en probabilité. Pour ce qui est du biais, voici un contre-exemple.

Exemple. Nous reprenons l’exemple ci-dessus. La fonction \(h_2^{-1}(t)=\sqrt{t}\) existe et elle est continue pour \(t \in {\mathbb R}_+^*\). Ainsi

\[ T_1(X_{\bullet}) =\sqrt{\frac{1}{n}\sum_{i=1}^n(\ln(X_i))^2}, \]

est un estimateur convergent de \(\sigma\). Quant au biais, un calcul sur la loi du khi-deux, que nous reprendrons dans l’estimation d’un écart type, nous donne

\[ {\mathbb E}_{\sigma}\lbrack T_1(X_{\bullet})\rbrack=\sqrt{\frac{2}{n}}\frac{\Gamma(\frac{n+1}{2})}{\Gamma(\frac{n}{2})}\sigma ,\quad \forall \sigma \in {\mathbb R}_+^*. \]

Il s’en suit, que dans ce cas particulier, un estimateur sans biais et convergent de \(\sigma\) est

\[ \sqrt{\frac{n}{2}}\frac{\Gamma(\frac{n}{2})}{\Gamma(\frac{n+1}{2})}\sqrt{\frac{1}{n}\sum_{i=1}^n(\ln(X_i))^2}. \]

Remarquons enfin que l’estimateur \(T_1(X_{\bullet}) =\sqrt{T(X_{\bullet}})\) est asyptotiquement normal. En effet la Propriété 1 de la Stabilisation de la Variance, nous permet d’obtenir :

\[ {\cal L}_{\sigma}\Big(\sqrt{2n}\frac{\sqrt{T(X_{\bullet})}-\sigma}{\sigma}\Big)\underset{n\rightarrow+\infty}\longrightarrow{\cal N}(0\ ;\ 1),\quad \forall \sigma \in {\mathbb R}_+^*. \quad\square \]

Application numérique. Nous supposons que le coût d’un sinistre automobile dans la catégorie «VOL» est la réalisation d’une v.a. de loi \(Log-{\cal N}(0\ ;\ 0\ ;\ \sigma^2)\). Nous estimons le paramètre inconnu \(\sigma^2\). Du tableau Sinistres dans R nous extrayons les 18 données correspondantes et nous les enregistrons dans le vecteur Vol. Nous les affichons dans l’ordre avec la commande :

Vol[,"MONT"] ; réponse :

\(\ 29.96\)\(\ 33.98\)\(\ 37.55\) \(\ 40.75\)>\(\ 61.42\)\(\ 72.55\) \(\ 116.67\)\(\ 121.16\)\(\ 132.28\)
\(\ 139.46\)\(\ 154.91\)\(\ 156.74\) \(\ 234.19\)\(\ 385.72\)\(\ 408.29\) \(\ 456.13\)\(\ 2305.34\)\(\ 3814.26\)

Nous calculons la réalisation correspondante de \(T(X_{\bullet}) = \displaystyle\frac{1}{n}\sum_{i=1}^n(\ln(X_i))^2\) avec la commande :

mean( log(Vol[,"MONT"])^2) ; réponse : 27.6354.

Ainsi 27,6354 est une réalisation d’un estimateur sans biais, convergent et asyptotiquement normal de \(\sigma^2\). Ensuite nous calculons la réalisation correspondante de \( T_1(X_{\bullet}) =\displaystyle\sqrt{\frac{1}{n}\sum_{i=1}^n(\ln(X_i))^2}\) avec la commande :

sqrt(mean( log(Vol[,"MONT"])^2)) ; réponse : 5.256938.

Enfin nous obtenons une une réalisation d’un estimateur sans biais, convergent de \(\sigma\) avec la commande :

sqrt(18/2) * (gamma(18/2) / gamma((18+1)/2)) * sqrt(mean( log(Vol[,"MONT"])^2)) ;
réponse : 5.330423.

Nous constatons qu’il y a une plus grande sévérité lorsque nous considérons un estimateur sans biais. \(\quad\square\)

Haut de la page.