le logo du site

6. Estimation.

6.1.7. Estimateur complet. \(\ast\)

Soit une v.a. \(X\) dont la loi dépend d’un paramètre \(\theta \in \Theta\). Nous considérons soit ses probabilités \(f(x\ ;\ \theta)=P(X=x\ ;\ \theta)\) (cas discret), soit sa densité \(f(x\ ;\ \theta)\) (cas continu). Nous utiliserons dans les énoncés la fonction de densité, mais le cas discret est tout à fait analogue. Soit \(X_{\bullet}=(X_1,\ \cdots,\ X_n)\) un \(n\)-échantillon de \(X\) et \(T(X_{\bullet})\) une statistique que nous utilisons comme estimateur de \(\theta\). Nous notons \(g(t\ ;\ \theta)\) sa densité.

Dénition 1. L’estimateur est appelé complet si l’implication suivante est satisfaite :

\[ {\mathbb E}_{\theta}\left\lbrack h(T(X_{\bullet})\right\rbrack=0,\quad \forall \theta \in \Theta\quad \Rightarrow\quad h(T(x_{\bullet}))=0, \]

pour presque tout \(x_{\bullet} \in {\mathbb R}^n\).

Interprétation. Cette implication veut dire qu’il n’existe pas d’estimateur sans biais de 0 autre que 0. La notion de complétude est, comme nous le verrons par la suite, très liée à celle d’exhaustivité. En effet, si cette dernière nous indique que l’estimateur nous apporte toute l’information contenue dans l’échantillon nécessaire à l’estimation de \(\theta\), la complétude nous indique que l’estimateur ne contient pas d’information superflue et inutile pour cette même estimation.

Remarque 1. De manière équivalente, dans la définition, nous pouvons utiliser à la place de zéro une autre constante quelconque.

Exemple 1. Considérons une v.a. \(X\) dont la loi est \({\cal L}(X)={\cal P}(\lambda),\ \lambda\in\Theta={\mathbb R}_+^{\star}\), une loi de Poisson. Soit \(T(X_{\bullet})=\sum_{i=1}^nX_i\) la somme d’un échantillon. De la Propriété 3 de ces lois nous savons que \({\cal L}(T)={\cal P}(n\lambda)\). Pour toute fonction \(h\) nous avons :

\[ {\mathbb E}_{\lambda}\left\lbrack h(T)\right\rbrack=\sum_{k=1}^{+\infty}\exp(-n\lambda)\frac{h(k)(n\lambda)^k}{k!}=0,\quad \forall \lambda \in {\mathbb R}_+^{\star}, \]

implique :

\[ h(0)+h(1)n\lambda+\frac{h(2)(n\lambda)^2}{2!}+\frac{h(3)(n\lambda)^3}{3!}+\cdots=0,\quad \forall \lambda \in {\mathbb R}_+^{\star}. \]

En faisant tendre \(\lambda \rightarrow 0^+\) nous obtenons \(h(0)=0\). Nous simplifions l’égalité précédente par \(n\lambda\) et nous itérons les deux étapes. Nous en déduisons alors que \(h(k)=0,\ \forall k\in {\mathbb N}\). L’estimateur \(T\) est complet. \(\quad\square\)

Nous donnons des propriétés des estimateurs complets. La plus importante, qui nous montre l’optimalité de certains estimateurs complets, est appelée théorème de Lehmann-Scheffé.

Propriété 1. Soit \(T\) un estimateur exhaustif et complet de \(\theta \in \Theta\). Considérons deux fonctions \(h_1,\ h_2\) telles que \({\mathbb E}_{\theta}\left\lbrack h_1(T(X_{\bullet})\right\rbrack=h_2(\theta)\). Alors \(h_1(T)\) est l’estimateur sans biais de \(h_2(\theta)\) de variance minimum :

\[ {\mathbb V}ar_{\theta}\left\lbrack h_1(T(X_{\bullet})\right\rbrack\leq {\mathbb V}ar_{\theta}\left\lbrack T^{(1)}(X_{\bullet})\right\rbrack,\quad \forall\ \theta \in \Theta,\ \forall\ T^{(1)}\ :\ {\mathbb E}_{\theta}\left\lbrack T^{(1)}(X_{\bullet})\right\rbrack=h_2(\theta). \]

Ainsi un estimateur exhaustif et complet est le plus efficace. Ce résultat peut s’étendre à un critère plus général que la variance : \(r(T\ ;\ \theta)={\mathbb E}_{\theta}\left\lbrack l(T\ ;\ \theta)\right\rbrack\), appelé fonction de risque ; la fonction \(l(t\ ;\ \theta)\), appelée fonction de perte, est convexe positive.

Propriété 2. Pour toutes les familles de lois soit discrètes soit admettant des densités, tout estimateur exhaustif et complet est un estimateur exhaustif minimal, c’est-à-dire que tout autre estimateur exhaustif est fonction de celui-ci.

Cette propriété à elle seule nous indique l’intérêt d’utiliser des estimateurs exhaustifs et complets. La propriété suivante complète le théorème de Darmois

Propriété 3. L’estimateur associé aux paramètres d’une famille exponentielle est exhaustif ; si, de plus, \(\Theta\) contient un ensemble ouvert non vide alors cet estimateur est complet.

C’est les cas de pratiquement toutes les lois usuelles que nous avons présentées. Le dernier résultat que nous présentons, connu sous le nom de théorème de Basu, est trés utile en pratique.

Propriété 4. Un estimateur exhaustif et complet est indépendant de toute statistique ancillaire ou pivotale, c’est-à-dire dont la loi ne dépend pas du paramètre estimé.

L’exemple classique suivant montre l’utilité d’un tel résultat.

Exemple 2. Considérons une v.a. \(X\) dont la loi est une loi de Normale \({\cal L}(X)={\cal N}(\mu\ ;\ \sigma^2),\ \mu \in {\mathbb R},\ \sigma\in {\mathbb R}_+^{\star}\). Soit :

\[ T(X_{\bullet})=\overline{X}=\frac{1}{n}\sum_{i=1}^nX_i\quad {\rm et}\quad S^2_c(X_{\bullet})=\frac{1}{n-1}\sum_{i=1}^n(X_i-\overline{X})^2. \]

De la propriété 3 ci-dessus nous déduisons que \(\overline{X}\) est exhaustive et complète pour \(\mu\). De plus il est bien connu que :

\[ {\cal L}(\frac{(n-1)S^2_c}{\sigma^2})=\chi^2_{n-1}, \]

loi du Khi-deux, qui ne dépend pas de \(\mu\). La propriété de Basu implique alors que, pour des lois Normales, \(\overline{X}\) et \(S^2_c\) sont indépendantes. Ce résultat nous sera très utile pour les tests et les intervalles de confiance des paramètres d’une loi Normale. \(\quad\square\)

Haut de la page.