le logo du site

6. Estimation.

6.1.5.d. Information de Fisher : Lois \({\cal N}_2. \quad\ast\)

Nous avons les résultats suivants.

Matrice d’information de Fisher en fonction de la covariance. Soit \(X\) un v.a. de loi Normale \({\cal N}_2(\mu\ ;\ \Sigma)\). Nous avons les 5 paramètres \(\theta=\sideset{^t}{}{(\mu,\ \Sigma)}\in\Theta={\mathbb R}^2\times{\mathbb R}_+^{\star\ 2}\times {\mathbb R}\), respectivement, les deux moyennes \(\mu_1,\ \mu_2\), les deux variances \(\sigma^2_1,\ \sigma^2_2\) et la covariance \(\sigma_{1,2}\). Le logarithme de la densité s’écrit :

\[ \begin{array}{ccl} \ln(f(x))& = & \displaystyle-\ln(2\pi)-\frac{1}{2}\ln(\sigma_1^2\sigma_2^2-\sigma_{1,2}^2)\cr & & \cr & & \displaystyle-\frac{\sigma_2^2(x_1-\mu_1)^2+\sigma_1^2(x_2-\mu_2)^2-2\sigma_{1,2}(x_1-\mu_1)(x_2-\mu_2)}{2(\sigma_1^2\sigma_2^2-\sigma_{1,2}^2)}, \end{array} \]

avec \(x\in {\mathbb R}^2\) ; le support \(S_{\theta}={\mathbb R}^2=S\) ne dépend pas des paramètres. Nous constatons que les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 4) sont satisfaites. Avec les notations du cas multivarié général nous avons :

\[ \Sigma=\pmatrix{ \sigma_1^2 & \sigma_{1,2} \cr \sigma_{1,2} & \sigma^2_2 \cr},\quad Det(\Sigma)=\sigma^2_1\sigma_2^2-\sigma_{1,2}^2,\quad \Sigma^{-1}=\displaystyle\frac{1}{Det(\Sigma)} \pmatrix{ \sigma_2^2 & -\sigma_{1,2} \cr -\sigma_{1,2} & \sigma^2_1 \cr}. \]

De plus, avec les mêmes notations, nous avons :

\[ \tau_{1,1}=\frac{\sigma_2^2}{Det(\Sigma)},\quad \tau_{2,2}=\frac{\sigma_1^2}{Det(\Sigma)},\quad \tau_{1,2}=\tau_{2,1}=- \frac{\sigma_{1,2}}{Det(\Sigma)},\quad {\rm et}\quad Det(\Sigma\ ;\ 1,\ 2\ ;\ 1,\ 2)=1. \]

Les résultats généraux impliquent :

\[ \quad I_X(\mu_1, \mu_2,\ \sigma_1^2,\ \sigma_2^2,\ \sigma_{1,2})=\pmatrix{ I_X(\mu_1, \mu_2) & 0_{2\times 3} \cr & \cr 0_{3\times 2} & I_X(\sigma_1^2,\ \sigma_2^2,\ \sigma_{1,2}) \cr}.\quad \]

La matrice d’information de Fisher est diagonale par bloc : les paramètres \(\mu_1,\ \mu_2\) sont orthogonaux avec les paramètres \(\sigma^2_1,\ \sigma^2_2,\ \sigma_{1,2}\). De plus :

\[ \quad I_X(\mu_1, \mu_2)= \Sigma^{-1}=\displaystyle\frac{1}{(\sigma_1^2\sigma_2^2-\sigma_{1,2}^2)} \pmatrix{ \sigma_2^2 & -\sigma_{1,2} \cr -\sigma_{1,2} & \sigma^2_1 \cr},\quad \]

et

\[ \quad I_X(\sigma_1^2,\ \sigma_2^2,\ \sigma_{1,2})=\displaystyle\frac{1}{(\sigma_1^2\sigma_2^2-\sigma_{1,2}^2)^2} \pmatrix{ \displaystyle\frac{\sigma_2^4}{2} & \displaystyle\frac{\sigma_{1,2}^2}{2} & -\sigma_2^2\sigma_{1,2}\cr & & \cr \displaystyle\frac{\sigma_{1,2}^2}{2} & \displaystyle\frac{\sigma_1^4}{2} & -\sigma_1^2\sigma_{1,2}\cr & & \cr -\sigma_2^2\sigma_{1,2} & -\sigma_1^2\sigma_{1,2} & \sigma_1^2\sigma_2^2+\sigma_{1,2}^2 \cr}.\quad \]

Les mêmes résultats peuvent s’obtenir par dérivation directe du logarithme de la densité ci-dessus par rapport à l’ensemble des 5 paramètres à l’ordre 1 et 2. \(\quad\square\)

Matrice d’information de Fisher en fonction du coefficient de corrélation linéaire. Soit \(X\) un v.a. de loi Normale \({\cal N}_2(\mu\ ;\ \Sigma)\). Nous avons les 5 paramètres \(\theta=\sideset{^t}{}{(\mu,\ \Sigma)}\in\Theta={\mathbb R}^2\times{\mathbb R}_+^{\star\ 2}\times \rbrack -1,\ 1\lbrack\), respectivement, les deux moyennes \(\mu_1,\ \mu_2\), les deux variances \(\sigma^2_1,\ \sigma^2_2\) et le coefficient de corrélation linéaire \(\varrho\). Le logarithme de la densité s’écrit alors :

\[ \begin{array}{ccl} \ln(f(x))& = & \displaystyle-\ln(2\pi)-\frac{1}{2}\ln(\sigma_1^2)-\frac{1}{2}\ln(\sigma_2^2)-\frac{1}{2}\ln(1-\varrho^2)\cr & & \cr & & \displaystyle-\frac{(x_1-\mu_1)^2}{2\sigma_1^2(1-\varrho^2)}-\frac{(x_2-\mu_2)^2}{2\sigma_2^2(1-\varrho^2)}+\frac{\varrho(x_1-\mu_1)(x_2-\mu_2)}{\sigma_1\sigma_2(1-\varrho^2)}, \end{array} \]

Nous constatons que les conditions (CR 0), (CR 1), (CR 2), (CR 3) et (CR 4) sont satisfaites. Nous ne présentons pas de résultats généraux, en dimension \(p\), en fonction des corrélations, mais par dérivation directe du logarithme de la densité ci-dessus, par rapport à l’ensemble des 5 paramètres à l’ordre 1 et 2, nous obtenons :

\[ \quad I_X(\mu_1, \mu_2,\ \sigma_1^2,\ \sigma_2^2,\ \varrho)=\pmatrix{ I_X(\mu_1, \mu_2) & 0_{2\times 3} \cr & \cr 0_{3\times 2} & I_X(\sigma_1^2,\ \sigma_2^2,\ \varrho) \cr}.\quad \]

La matrice d’information de Fisher est diagonale par bloc : les paramètres \(\mu_1,\ \mu_2\) sont orthogonaux avec les paramètres \(\sigma^2_1,\ \sigma^2_2,\ \varrho\). De plus :

\[ \quad I_X(\mu_1, \mu_2)= \displaystyle\frac{1}{1-\varrho^2} \pmatrix{ \displaystyle\frac{1}{\sigma_1^2} & -\displaystyle\frac{\varrho}{\sigma_1\sigma_2} \cr & \cr -\displaystyle\frac{\varrho}{\sigma_1\sigma_2} & \displaystyle\frac{1}{\sigma_2^2} \cr},\quad \]

et

\[ \quad I_X(\sigma_1^2,\ \sigma_2^2,\ \varrho)=\displaystyle\frac{1}{1-\varrho^2} \pmatrix{ \displaystyle\frac{2-\varrho^2}{4\sigma_1^4} & -\displaystyle\frac{\varrho^2}{4\sigma_1^2\sigma_2^2} & -\displaystyle\frac{\varrho}{2\sigma_1^2} \cr & & \cr -\displaystyle\frac{\varrho^2}{4\sigma_1^2\sigma_2^2} & \displaystyle\frac{2-\varrho^2}{4\sigma_2^4} & -\displaystyle\frac{\varrho}{2\sigma_2^2}\cr & & \cr -\displaystyle\frac{\varrho}{2\sigma_1^2} & -\displaystyle\frac{\varrho}{2\sigma_2^2} & \displaystyle\frac{1+\varrho^2}{1-\varrho^2} \cr}.\quad \]

Ce qui achève le cas de dimension 2. \(\quad\square\)

Haut de la page.