Considérons une v.a. \(X\) dont la loi dépend d’un paramètre \(\theta \in \Theta\). Soit \(X_{\bullet}\) un \(n\)-échantillon de \(X\) et \(T(X_{\bullet})\) une statistique que nous nous utilisons comme estimateur de \(\theta\). La deuxième propriété que celui-ci doit satisfaire est décrite dans la définition suivante.
Définition 1. Nous appelons biais de l’estimateur \(T\) au point \(\theta\) la fonction
\[ \theta \longmapsto b_T(\theta)={\mathbb E}_{\theta}\lbrack T\rbrack - \theta,\quad \forall \theta \in \Theta. \]Nous disons que l’estimateur \(T\) est sans biais si
\[ b_T(\theta) = {\mathbb E}_{\theta}\lbrack T\rbrack - \theta = 0,\quad \forall \theta \in \Theta. \]Nous disons que l’estimateur \(T\) est un estimateur asymptotiquement sans biais (en abrégé a.s.b.) si
\[ \lim_{n\rightarrow +\infty} b_T(\theta)=0,\quad \forall \theta \in \Theta. \]Interprétation. Un estimateur sans biais nous donne des estimations du paramètre inconnu qui, en moyenne, sont autour de ce paramètre. Bien entendu, pour pouvoir calculer le biais, il faut non seulement connaître \({\cal L}_{\theta}(T)\), mais également pouvoir calculer sa moyenne théorique.
Exemple 1. Nous considérons l’Exemple 2 de la durée de vie d’un équipement auquel nous avons appliqué un nouveau procédé permettant de prolonger cette durée de vie. Nous admettons que la durée de vie d’un équipement est distribuée selon une loi Exponentielle \({\cal GA}(1\ ;\ \beta)\). Notons \(x_0\) le décalage de cette durée de vie que le nouveau procédé permet d’obtenir ; c’est le paramètre que nous nous proposons d’estimer. Comme \({\cal L}(X-x_0)={\cal GA}(1\ ;\ \beta)\), nous en déduisons :
\[ f_X(t)=\beta \exp(-\beta(t-x_0))I_{\rbrack x_0\ ;\ +\infty\lbrack}(t),\quad {\mathbb E}\lbrack X\rbrack= x_0+\frac{1}{\beta}\quad {\rm et}\quad \sigma^2\lbrack X\rbrack=\frac{1}{\beta^2}. \]Un possibilité serait d’utiliser comme estimateur la moyenne de l’échantillon \(\displaystyle \overline{X}=\frac{1}{n}\sum_{i=1}^n X_i\). Les expressions ci-dessus nous donnent :
\[ {\mathbb E}\lbrack \overline{X}\rbrack= x_0+\frac{1}{\beta}\quad {\rm et}\quad \sigma^2\lbrack \overline{X}\rbrack=\frac{1}{n\beta^2}. \]De plus la Propriété 4 des lois gamma implique que \({\cal L}(\overline{X}-x_0)={\cal GA}(n\ ;\ n\beta)\). Ainsi nous constatons que \(\overline{X}\) est un estimateur avec biais, \(b_{\overline{X}}(x_0)=\displaystyle\frac{1}{\beta}\). Il converge, non vers le paramètre \(x_0\), mais vers \(x_0+\displaystyle\frac{1}{\beta}\). Intuitivement, une autre possibilité consiste à choisir l’observation la plus proche de \(x_0\), c’est-à-dire la plus petite observation. Nous avons \(X_{(1)}=\displaystyle\min_{i=1}^n X_i\). Des propriétés de la statistique d’ordre, nous déduisons :
\[ {\cal L}(X_{(1)}-x_0)={\cal GA}(1\ ;\ n\beta),\quad {\mathbb E}\lbrack X_{(1)}\rbrack= x_0+\frac{1}{n\beta}\quad {\rm et}\quad \sigma^2\lbrack X_{(1)}\rbrack=\frac{1}{n^2\beta^2}. \]Donc \(X_{(1)}\) est un estimateur a.s.b. et convergent. Nous pouvons améliorer la procédure d’estimation en posant :
\[ T=\frac{n}{n-1}(X_{(1)}-\frac{\overline{X}}{n}). \]Nous avons alors :
\[ {\mathbb E}\lbrack T\rbrack=\frac{n}{n-1}({\mathbb E}\lbrack X_{(1)}\rbrack-\frac{1}{n}{\mathbb E}\lbrack \overline{X}\rbrack)= \frac{n}{n-1}(x_0+\frac{1}{n\beta}-\frac{x_0}{n}-\frac{1}{n\beta})=x_0. \]Le calcul de \(\sigma^2\lbrack T\rbrack\) est relativement compliqué parce qu’il dépend de \({\mathbb C}ov\lbrack X_{(1)}\ ;\ \overline{X}\rbrack\). Mais un calcul de probabilité nous donne :
\[ P\Big(\mid T-x_0\mid > \varepsilon\Big)\leq P\Big(\mid \frac{n}{n-1}(X_{(1)}-{\mathbb E}\lbrack X_{(1)}\rbrack)\mid >\frac{\varepsilon}{2}\Big) + P\Big(\mid \frac{1}{n-1}(\overline{X}-{\mathbb E}\lbrack \overline{X}\rbrack)\mid>\frac{\varepsilon}{2}), \] \[ \leq \frac{4}{(n-1)^2\varepsilon^2\beta^2}+\frac{4}{(n-1)^2\varepsilon^2n\beta^2}\underset{n\rightarrow+\infty}{\longrightarrow}\ 0,\quad \forall \varepsilon > 0. \]Ainsi \(T\) est un estimateur sans biais et convergent. Nous en déduisons l’estimation \(\widehat{x}_0\) de \(x_0\) :
mean(Donnees) ; réponse : 3.1488.
min(Donnees) ; réponse : 2.51.
50 * (min(Donnees) - (mean(Donnees) / 50)) / 49 ; réponse : 2.496963.
Nous avons donc \(\widehat{x}_0=2,496963\).
Remarque 1. Considérons comme paramètre \(\displaystyle\frac{1}{\beta}\). Une procédure strictement analogue à la précédente nous indique que l’estimateur \(T^{(1)}=\displaystyle\frac{n}{n-1}(\overline{X}-X_{(1)})\) est sans biais et convergent pour ce paramètre. Ce qui nous donne une estimation :
50 * (mean(Donnees) - min(Donnees)) / 49 ; réponse : 0.6518367 .
Nous avons donc \(\displaystyle\widehat{\frac{1}{\beta}}=0,6518367\). Nous pouvons alors poser \(\widehat{\beta}=\displaystyle\frac{1}{0,6518367}=1,534126\). De la Propriété 2 de la convergence en probabilité, comme \(\beta\not=0\), nous pouvons déduire qu’il s’agit d’un estimateur convergent. Nous ne savons rien sur sa moyenne théorique et donc sur son biais (la moyenne théorique de l’inverse n’est pas en général l’inverse de la moyenne théorique). Finalement nous retenons les estimations \(\widehat{x}_0=2,496963\) et \(\widehat{\beta}=1,534126\) ; elles ont été utilisées pour tracer le graphique des quantiles. \(\quad\square\)
Haut de la page.