Considérons une v.a. \(X\) dont la loi dépend d’un paramètre \(\theta \in \Theta\). Soit \(X_{\bullet}=(X_1,\ \cdots,\ X_n)\) un \(n\)-échantillon de \(X\) et \(T(X_{\bullet})\) une statistique que nous nous utilisons comme estimateur de \(\theta\). La propriété la plus importante que celui-ci doit satisfaire est la suivante.
Définition 1. Nous appelons estimateur convergent d’un paramètre \(\theta\) toute statistique \(T\) qui, pour tout écart \(\varepsilon > 0\), vérifie :
\[ \lim_{n\rightarrow+\infty} P_{\theta}\left(\mid T(X_{\bullet}) - \theta\mid > \varepsilon\right)=0,\quad \forall \theta \in \Theta. \]C’est-à-dire que pour tout \(\theta\) nous avons \(T(X_{\bullet})\overset{P_{\theta}}{\underset{n\rightarrow+\infty}\longrightarrow}\theta\).
Interprétation. Cette condition, très abstraite, veut dire que les chances d’observer un écart donné entre \(T\) et \(\theta\), si \(\theta\) est la vraie valeur du paramètre, sont d’autant plus faibles que le nombre d’observations est grand. Nous donnons une condition suffisante permettant d’établir la convergence d’un estimateur.
Propriété 1. Pour valider la convergence d’un estimateur il suffit de montrer que :
\[ \lim_{n\rightarrow+\infty}{\mathbb E}_{\theta}\lbrack T\rbrack=\theta\quad {\rm et}\quad\lim_{n\rightarrow+\infty} \sigma^2_{\theta}\lbrack T\rbrack=0, \quad \forall \theta \in \Theta. \]Bien entendu, pour pouvoir vérifier ce critère, il faut non seulement connaître quelques éléments de la loi de \(X\) et de celle de \(T\) mais également pouvoir calculer les moyenne et variance de cette denière.
Exemple 1. Nous considérons l’Exemple 3. Nous avons observé le nombre d’arrêts d’une chaîne de production durant \(n=1000\) périodes de huit heures. La distribution des données est la suivante :
Nombre d’arrêts | \(\quad 0\quad\) | \(\quad 1\quad\) | \(\quad 2\quad\) | \(\quad 3\quad\) | \(\quad 4\quad\) |
Nombre de périodes | \(\quad 509\quad\) | \(\quad 327\quad\) | \(\quad 125\quad\) | \(\quad 35\quad\) | \(\quad 4\quad\) |
Pour chaque période \(i\ ,\ i=1,\ \cdots,\ n,\) nous notons \(X_i\) le nombre d’arrêts de la chaîne. Nous supposons d’une part que la \({\cal L}(X)\) est une loi de Poisson \({\cal P}(\lambda)\), et d’autre part que le nombre d’arrêts d’une période est indépendant de celui des autres périodes. La première supposition peut être testée (cf les tests d’adéquation). Pour la seconde nous proposerons un test non paramétrique. Nous posons comme paramètre :
\[ \theta=P(X=0)=e^{-\lambda} \in \Theta=\rbrack 0\ ;\ 1\lbrack. \]En notant \({\overline X}=\displaystyle\frac{1}{n}\sum_{i=1}^nX_i\), nous pouvons considérer comme estimateur de \(\theta\) :
\[ T(X_{\bullet})= e^{\displaystyle n {\overline X}\ln(1-\frac{1}{n})}=(1-\frac{1}{n})^{\displaystyle n{\overline X}}. \]Avec l’aide de la fonction génératrice des moments nous pouvons calculer :
\[ {\mathbb E}_{\theta}\lbrack T\rbrack = \theta \quad {\rm et}\quad \sigma^2_{\theta}\lbrack T\rbrack=\theta^2(\theta^{-\frac{1}{n}}-1)\underset{n\rightarrow+\infty}{\longrightarrow}\ 0. \]Nous avons bien un estimateur convergent. Les commandes de R suivantes nous permettent d’obtenir une estimation de \(\theta\):
mean(Donnees) ; réponse : 0.698.
exp (1000 * mean(Donnees) * log(999 / 1000)) ; réponse : 0.4974057.
Nous avons donc l’estimation \(\widehat{\theta}=\widehat{e^{-\lambda}}= 0,4974057\), c’est-à-dire que pour environ 49,7 % des périodes il n’y aura pas d’arrêts de la chaîne.
Nous pouvons choisir un autre estimateur \(T^{(1)}\) en définissant, pour \(i=1,\ \cdots,\ n,\) les variables :
\[ Y_i=\cases{ 1 \quad {\rm si} & \( X_i=0,\) \cr 0 \quad {\rm si} & \( X_i \geq 1.\) } \]Nous reconnaissons des v.a. de Bernoulli de loi \({\cal B}(1\ ;\ \theta)\). Nos suppositions impliquent alors que :
\[ T^{(1)}(X_{\bullet})= {\overline Y}=\frac{1}{n}\sum_{i=1}^nY_i, \]est telle que \({\cal L}(nT^{(1)})={\cal B}(n\ ;\ \theta)\), loi Binomiale. Nous en déduisons alors :
\[ {\mathbb E}_{\theta}\lbrack T^{(1)}\rbrack = \theta \quad {\rm et}\quad \sigma^2_{\theta}\lbrack T^{(1)}\rbrack=\frac{\theta(1-\theta)}{n}\underset{n\rightarrow+\infty}{\longrightarrow}\ 0. \]Nous avons ainsi un autre estimateur convergent. Les commandes de R suivantes nous permettent d’obtenir une deuxième estimation de \(\theta\) :
509/1000 ; réponse : 0.509.
La question qui se pose est : quelle est la meilleure estimation de \(\theta\) ? Pour y répondre il suffit de constater que :
\[ \sigma^2_{\theta}\lbrack T\rbrack=\theta^2(\theta^{-\frac{1}{n}}-1)\leq \frac{\theta(1-\theta)}{n}=\sigma^2_{\theta}\lbrack T^{(1)}\rbrack, \quad \forall \theta \in \Theta=\rbrack 0\ ;\ 1\lbrack. \]C’est bien \(T=0,4974057\) qu’il faut retenir, parce que l’estimateur \(T\) est moins dispersé autour de sa moyenne théorique, qui est \(\theta\), que \(T^{(1)}\), qui a la mêm moyenne théorique. \(\quad\square\)
Haut de la page.