Les lois Normales se généralisent à plusieurs dimensions. Cette démarche n’est pas gratuite ; elle correspond à une réalité. En effet, sur chaque unité extraite d’une population, nous effectuons en général non pas une mesure, mais plusieurs mesures de différentes caractéristiques. Il convient alors d’étudier, en plus de chaque mesure individuellement, toutes les mesures simultanément pour analyser les différentes relations qui peuvent éventuellement exister entre elles.
Définition 1. Un vecteur aléatoire continu \(X=\sideset{^t}{}(X_1, \cdots, X_p)\in {\mathbb R}^p\) suit une loi de Gauss , ou de Laplace - Gauss ou encore une loi Normale multivariée régulière de paramètres un vecteur \(\mu=\sideset{^t}{}(\mu_1, \cdots, \mu_p)\in {\mathbb R}^p\) et une matrice régulière (i.e. inversible) \(\Sigma=(\sigma_{j,j^{\prime}},\ j,\ j^{\prime}=1, \cdots, p) \in {\mathbb M}(p,\ p)\) si elle admet pour densité de probabilité la fonction :
\[ f_X(x) =\frac{1}{(2\pi)^{\frac{p}{2}}\sqrt{Det(\Sigma)}}\exp\left(\displaystyle - \frac{1}{2}\ ^t(x-\mu)\Sigma^{-1}(x-\mu)\right),\quad x\in {\mathbb R}^p. \]Ceci est noté \({\cal L}(X)={\cal N}_p(\mu\ ;\ \Sigma)\). Si \(\mu=0_p\), le vecteur nul de \({\mathbb R}^p\), et si \(\Sigma=I_p\), la matrice identité dans \({\mathbb M}(p,\ p)\), nous dirons que \(X\) suit la loi Normale multivariée standard \({\cal N}_p(0_p\ ;\ I_p)\).
Modélisation. Les mêmes remarques du cas univarié sont encore valables dans le cas multivarié. Donnons à titre d’exemple celui, très célèbre, des iris de Fisher. Pour analyser statistiquement les différences entre les espèces une loi Normale de dimension \(p=4\) peut être utilisée.
Remarque 1. Si \(p=1\), nous retrouvons la définition d’une loi normale unidimensionnelle.
Propriété 1. Si \({\cal L}(X)={\cal N}_p(\mu\ ;\ \Sigma)\) alors :
\[ \mu = {\mathbb E}\lbrack X \rbrack = \pmatrix{ {\mathbb E}\lbrack X_1\rbrack\cr \vdots \cr {\mathbb E}\lbrack X_p\rbrack \cr}=\pmatrix{\mu_1\cr \vdots \cr \mu_p \cr}\quad {\it et} \quad \Sigma={\mathbb E}\left\lbrack (X - \mu)\ ^t(X - \mu)\right\rbrack\ . \]Ainsi la moyenne théorique du vecteur est \(\mu\) et la matrice des variances-covariances théoriques est \(\Sigma\). De plus
\[ \sigma_{j,j}=\sigma^2\lbrack X_j\rbrack= {\mathbb E}\lbrack (X_j-{\mathbb E}\lbrack X_j\rbrack)^2\rbrack,\quad j=1, \cdots, p, \] \[ \sigma_{j,j^{\prime}}={\mathbb C}ov\lbrack X_j,\ X_{j^{\prime}}\rbrack = {\mathbb E}\lbrack (X_j-{\mathbb E}\lbrack X_j\rbrack)(X_{j^{\prime}}-{\mathbb E}\lbrack X_{j^{\prime}}\rbrack)\rbrack,\quad j, \ j^{\prime}=1, \cdots, p. \]La fonction génératrice des moments est \(g_X(u)= \exp{(\sideset{^t}{}\mu u+\dfrac{\sideset{^t}{}u\Sigma u}{2})},\ u\in {\mathbb R}^p\).
Remarque 2. Nous avons désigné par \({\mathbb M}(p,\ p)\) l’ensemble des matrices carrées réelles, avec \(p\) lignes et \(p\) colonnes. Une telle matrice est régulière si elle est inversible. Il existe des lois normales non régulières, mais elles ne font pas l’objet de ce site. Dans tout ce site, sauf exception, nous supposerons toujours que \(\Sigma\) est régulière sans le mentionner. Nous rappelons également que
\[ \varrho_{j,\ j^{\prime}}=\varrho\lbrack X_j,\ X_{j^{\prime}}\rbrack=\frac{{\mathbb C}ov\lbrack X_j,\ X_{j^{\prime}}\rbrack}{\sigma\lbrack X_j\rbrack\sigma\lbrack X_{j^{\prime}}\rbrack}= \frac{\sigma_{j,j^{\prime}}}{\sqrt{\sigma_{j,j}\sigma_{j^{\prime},j^{\prime}}}},\quad j,\ j^{\prime}=1,\ \cdots,\ p, \]est le coefficient de corrélation linéaire entre \(X_j\) et \(X_{j^{\prime}}\).
Remarque 3. Bien entendu, nous ne pouvons pas représenter la densité normale au-delà de trois dimensions. Mais en dimension deux nous la représentons par une surface dans \({\mathbb R}^3\). Cette surface a la forme d’une cloche ; le point où elle atteint son maximum correspond à \(\mu=\sideset{^t}{}(\mu_1,\ \mu_2)\). L’intersection de cette surface avec un plan parallèle au plan \((x,\ y)\), donne une ellipse, plus ou moins aplatie, en fonction des paramètres \(\sigma_{1,1},\sigma_{2,2}\) et \(\sigma_{1,2}\).
Calculs avec R. Il est possible de simuler des réalisations d’une loi normale multivariée. La commande est mvrnorm(n=,mu=,Sigma=). Mais il faut au préalable charger la bibliothèque MASS.
Propriété 2. Les composantes \(X_1, \cdots, X_p\) de \(X\) sont indépendantes si et seulement si \(\Sigma\) est diagonale.
Propriété 3. Si \({\cal L}(X)={\cal N}_p(\mu\ ;\ \Sigma)\) alors toute combinaison linéaire des composantes de \(X\) suit une loi normale. Ceci s’écrit :
\[ {\cal L}(\ ^taX)={\cal L}\left(\sum_{j=1}^p a_jX_j\right)={\cal N}_1(\ ^ta\mu\ ;\ \ ^ta\Sigma a),\quad \forall a\in {\mathbb R}^p. \]La réciproque est vraie également.
Cette propriété généralise la Propriété 2 énoncée dans le cadre des lois normales univariées. Nous pouvons la compléter de la manière suivante.
Propriété 4. Si \({\cal L}(X)={\cal N}_p(\mu\ ;\ \Sigma)\) et \(A \in {\mathbb M}(q,\ p)\) une matrice rectangulaire à \(q\) lignes et \(p\) colonnes alors :
\[ {\cal L}(AX)={\cal N}_q(A\mu\ ;\ A\Sigma \ ^tA). \]En particulier la transformation \(\Sigma^{-\frac{1}{2}}(X-\mu)\) permet de standardiser le vecteur \(X\).
Propriété 5. Si \({\cal L}(X)={\cal N}_p(\mu\ ;\ \Sigma)\) alors toutes les lois marginales et toutes les lois conditionnelles sont des lois normales.
Nous donnons un résultat pour les lois normales non régulières.
Propriété 6. Si \({\cal L}(X)={\cal N}_p(\mu\ ;\ \Sigma)\) avec \(rg(\Sigma)=q < p\) (matrice non régulière), il existe alors une matrice rectangulaire \(A \in {\mathbb M}(p,\ q)\) et un vecteur aléatoire \(Y\), de loi \({\cal L}(Y)={\cal N}_q(0_q\ ;\ I_q)\), tel que \({\cal L}(X)={\cal L}(\mu +AY)\). Nous avons noté, respectivement \(0_q\) le vecteur nul de \({\mathbb R}^q\) et \(I_q\) matrice identité dans \({\mathbb M}(q,\ q)\).
Haut de la page.