le logo du site

6. Estimation.

6.1.5.g. Information de Fisher : Autres lois continues - II. \(\ast\)

Nous donnons les quantités d’information de Fisher pour les lois de Pareto, de Cauchy et uniformes continues.

Lois de Pareto. Soit \(X\) une v.a. de loi de Pareto \({\cal PA}(\alpha\ ;\ x_0)\). Nous avons comme paramètres \(\theta=\sideset{^t}{}{(\alpha,\ x_0)}\in\Theta=({\mathbb R}_+^{\star})^2\) et la densité s’écrit

\[ f(x\ ;\ \alpha,\ x_0)=\frac{\alpha x_0^{\alpha}}{x^{\alpha+1}}I_{\rbrack x_0\ ;\ +\infty\lbrack}(x), \quad x\in {\mathbb R}. \]

Le support est \(S_{\theta}=\rbrack x_0\ ;\ +\infty\lbrack=S_{x_0}\) ; il dépend du paramètre \(x_0\). Nous constatons que les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 4) sont satisfaites pour \(\alpha\), mais la condition (CR 0) ne l’est pas pour \(x_0\). Pour \(x_0< x\), nous avons :

\[ \ln(f(x\ ;\ \alpha,\ x_0))=\ln(\alpha)+\alpha\ln(x_0) - (\alpha+1)\ln(x). \]

Nous dérivons :

\[ \frac{\partial \ln(f(x\ ;\ \alpha,\ x_0))}{\partial \alpha}=\frac{1}{\alpha}+\ln(x_0)-\ln(x), \quad \frac{\partial^2 \ln(f(x\ ;\ \alpha,\ x_0))}{\partial \alpha^2}=-\frac{1}{\alpha^2}, \]

et

\[ \left(\frac{\partial \log(f(x\ ;\ \alpha,\ x_0))}{\partial x_0}\right)_{x≠ x_0}= \frac{\alpha}{x_0}. \]

Remarquons que la condition (CR 0) n’étant pas satisfaite pour \(x_0\), nous utilisons la définition de l’information. Après avoir calculé \({\mathbb E}\lbrack\ln(X)\rbrack,\) nous obtenons :

\[\quad I_X(\alpha,\ x_0)=\pmatrix{ \displaystyle\frac{1}{\alpha^2} & 0\cr 0 & \dfrac{\alpha^2}{x_0^2} \cr}.\quad\]

Les paramètres sont orthogonaux. \(\quad\square\)

Lois de Cauchy. Soit \(X\) une v.a. de loi de Cauchy \({\cal CA}(x_0\ ;\ \alpha)\). Nous avons comme paramètres \(\theta=\sideset{^t}{}{(x_0,\ \alpha)}\in\Theta={\mathbb R}\times {\mathbb R}_+^{\star}\) et la densité s’écrit

\[ f(x\ ;\ x_0,\ \alpha)=\frac{1}{\pi}\frac{\alpha}{\alpha^2 +(x-x_0)^2},\quad x\in {\mathbb R}. \]

Le support est \(S_{\theta}={\mathbb R}=S\) ; il ne dépend pas des paramètres. Nous constatons que les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 4) sont satisfaites et que :

\[ \ln(f(x\ ;\ x_0,\ \alpha)=-\ln(\pi)+\ln(\alpha)-\ln(\alpha^2+(x-x_0)^2). \]

Nous dérivons :

\[ \frac{\partial \ln(f(x\ ;\ x_0,\ \alpha))}{\partial x_0}=\frac{2(x-x_0)}{\alpha^2+(x-x_0)^2}, \quad \frac{\partial \ln(f(x\ ;\ x_0,\ \alpha))}{\partial \alpha}=\frac{1}{\alpha}-\frac{2\alpha}{\alpha^2+(x-x_0)^2}, \] \[ \frac{\partial^2 \ln(f(x\ ;\ x_0,\ \alpha))}{\partial \alpha^2}= - \frac{1}{\alpha^2}-\frac{2}{\alpha^2+(x-x_0)^2}+\frac{4\alpha^2}{(\alpha^2+(x-x_0)^2)^2}. \]

et

\[ \frac{\partial^2 \ln(f(x\ ;\ x_0,\ \alpha))}{\partial x_0^2}= - \frac{2}{\alpha^2+(x-x_0)^2}+\frac{4(x-x_0)^2}{(\alpha^2+(x-x_0)^2)^2}, \]

et

\[ \frac{\partial^2 \ln(f(x\ ;\ x_0,\ \alpha))}{\partial\alpha\partial x_0}=-\frac{4\alpha(x-x_0)}{(\alpha^2+(x-x_0)^2)^2}. \]

Le calcul des moyennes théoriques, par intégration de fractions de polynômes, nous donne :

\[\quad I_X(x_0,\ \alpha)=\pmatrix{ \displaystyle\frac{1}{2\alpha^2} & 0\cr 0 & \dfrac{1}{2\alpha^2} \cr}=\frac{1}{2\alpha^2}{\mathbb I}_{2\times 2}.\quad\]

Les paramètres sont orthogonaux. \(\quad\square\)

Lois Uniformes continues. Soit \(X\) une v.a. de loi Uniforme \({\cal U}(\rbrack \theta_1\ ;\ \theta_2\lbrack)\). Nous avons comme paramètres \(\theta=\sideset{^t}{}{(\theta_1,\ \theta_2)}\in\Theta={\mathbb R}^2,\ \theta_1\not=\theta_2\) et la densité s’écrit

\[ f(x\ ;\ \theta_1,\ \theta_2)=\frac{1}{\theta_2-\theta_1}I_{\rbrack \theta_1\ ;\ \theta_2\lbrack}(x),\quad x\in {\mathbb R}. \]

Le support est \(S_{\theta}=\rbrack \theta_1\ ;\ \theta_2\lbrack\) ; il dépend des paramètres. Nous constatons que la condition (CR 0) n’est pas satisfaite et que :

\[ \ln(f(x\ ;\ \theta_1,\ \theta_2))=-\ln(\theta_2-\theta_1). \]

Nous obtenons aisément :

\[\quad I_X(\theta_1,\ \theta_2)= \displaystyle\frac{1}{(\theta_2-\theta_1)^2}\pmatrix{ 1& -1\cr -1 & 1 \cr}.\quad\]

Si \(X_{\bullet}\) est un \(n-\)échantillon, un calcul strictement analogue au précédent nous donne :

\[ I_{X_{\bullet}}(\theta_1,\ \theta_2)=n^2I_X(\theta_1,\ \theta_2)\not=nI_X(\theta_1,\ \theta_2). \]

Nous retrouvons ici le fait que, la condition (CR 0) n’étant pas satisfaite, nous n’avons pas la propriété d’additivité de l’information de Fisher. \(\quad\square\)

Haut de la page.