Toutes les notions introduites dans l’étude des moments d’un vecteur de dimension \(2\) sont généralisées et adaptées au cas de dimensions supérieures. Soit un v.a. \(X=\sideset{^t}{}(X_1, \cdots, X_p)\) à valeurs dans \({\mathbb R}^p\). Nous supposerons que toutes les espérances mentionnées dans cette page existent. Nous écrivons les résultats dans le cas d’une lois continue ; le cas discret est tout à fait analogue.
Définition 1. Nous appelons espérance mathématique, ou encore moyenne théorique de \(X\) le vecteur :
avec, pour tout \(j\in\lbrace 1, \cdots, p\rbrace\),
où \(f_X\) (resp. \(f_{X_j}\)) désigne la densité (resp. densité marginale) de \(X\) (resp. de la composante \(X_j\)). Nous appelons matrice des variances-covariances théoriques de ce vecteur la matrice :
où :
Nous avons exprimé les moments précédents soit avec la densité du v.a. \(X\), soit avec les densités marginales de la v.a. ou du couple de v.a. correspondantes. Nous retrouvons ainsi la variance théorique d’une v.a. et la covariance théorique entre deux v.a.. Comme pour la dimension \(2\) nous avons le résultat suivant :
Propriété 1. La matrice \(\Sigma_X\) est symétrique et semi-définie positive ; ses valeurs propres sont réelles positives. Si de plus la loi de \(X\) n’est pas dégénérée, c’est-à-dire que l’une des composantes n’est pas une fonction affine d’un certains nombre d’autres composantes, alors \(\Sigma_X\) est inversible et définie positive. Ses valeurs propres sont dans ce cas strictement positives.
En effet, la transposée d’une espérance est l’espérance de la transposée et \(^ta\Sigma_X a={\mathbb V}ar\lbrack\sideset{^t}{}a X\rbrack\). Il suffit alors d’utiliser des techniques classiques d’algèbre linéaire pour obtenir ces résultats.\(\quad \square\)
Définition 2. Nous appelons fonction génératrice des moments d’un v.a. \(X\) la fonction définie, pour les \(u=(u_1,\cdots, u_p)\in{\mathbb R}^p\) dans un voisinage ouvert de \(0_p\) pour lesquels elle existe, par :
Nous appelons fonction caractéristique d’un v.a. \(X\) la fonction définie, \(\forall u=(u_1,\cdots, u_p)\in{\mathbb R}^p\), par :
où \(i^2=-1\).
Remarque 1. La fonction génératrice des moments d’un v.a., lorsqu’elle existe, détermine sa loi.
Propriété 2. Soit un v.a. \(X\) admettant une fonction génératrice des moments \(g_X(u_1,\cdots, u_p)\) et \(c_X(u_1,\cdots, u_p)\) sa fonction caractéristique. Alors les moments de tous ordres existent et :
pour tous les nombres \(m,\ k_1,\cdots, k_m\in{\mathbb N}\) et \( j_1,\cdots, j_m\in\lbrace 1,\cdots, p\rbrace\).
Ce résultat s’obtient par dérivations sous l’intégrale. \(\quad \square\)
Nous étudions à présent la relation de l’une des composantes d’un v.a., par exemple \(X_{j_0}\), avec un certain nombre d’autres composantes, par exemple \(X_{j_1},\cdots,\ X_{j_k}\), avec \(j_0,\ j_1,\cdots,\ j_k\in\lbrace 1,\cdots, p\rbrace\), indices différents les uns des autres. Pour faciliter l’écriture des expressions, nous notons \(X^{(k)}= \sideset{^t}{}(X_{j_1},\cdots,\ X_{j_k})\) et \({\mathbb C}ov\lbrack X_{j_0},\ X^{(k)}\rbrack=\sideset{^t}{}({\mathbb C}ov\lbrack X_{j_0},\ X_{j_1}\rbrack,\cdots,\ {\mathbb C}ov\lbrack X_{j_0},\ X_{j_k}\rbrack)\). Nous supposons que \(\Sigma_{X^{(k)}}^{-1}\) existe.
Propriété 3. Nous avons le résultat :
avec
Pour le voir il suffit d’ajouter et de retrancher \({\mathbb E}\lbrack X_{j_0}\rbrack-\sideset{^t}{}a{\mathbb E}\lbrack X^{(k)}\rbrack\) dans le carré, d’effectuer ce dernier, puis de montrer que le minimum est atteint pour \(a_{\star}\) et \(b_{\star}\). \(\quad \square\)
Définition 3. Nous appelons régression linéaire multiple théorique de \(X_{j_0}\) par rapport à \(X^{(k)}\) la v.a. :
Nous appelons coefficient théorique de corrélation linéaire multiple de \(X_{j_0}\) par rapport à \(X^{(k)}\) le carré du coefficient de corrélation linéaire entre \(X_{j_0}\) et la régression linéaire multiple \(RL(X_{j_0}\vert X^{(k)})\) ; nous le notons :
Nous appelons résidu de la régression linéaire multiple théorique de \(X_{j_0}\) par rapport à \(X^{(k)}\) la v.a. \(Res(X_{j_0}\lvert X^{(k)})=X_{j_0}-RL(X_{j_0}\vert X^{(k)}).\)
Propriété 4. Nous avons les résultats :
Ces égalités s’obtiennent par calcul direct à partir des définitions de \(\varrho^2_M, RL\) et \(Res\). \(\quad \square\)
Interprétation. Le coefficient \(\varrho^2_M\) représente la part de variation de \(X_{j_0}\) «expliquée» par la régression linéaire multiple \(RL(X_{j_0}\lvert X^{(k)})\). Celle-ci est la combinaison linéaire des composantes de \(X^{(k)}\) qui est la plus proche de \(X_{j_0}\), au sens des moindres carrés dans l’espace des v.a. centrés, de carré intégrables. C’est la projection orthogonale de \(X_{j_0}\) dans le sous-espace engendré par \(X^{(k)}\).
Propriété 5. Nous avons : \(0\leq \varrho^2_M\lbrack X_{j_0}\lvert X^{(k)}\rbrack\leq 1\).
- Si \(\varrho^2_M\lbrack X_{j_0}\lvert X^{(k)}\rbrack=0\), alors \(X_{j_0}\) est non corrélée avec chacune des composantes de \(X_{j_0}\).
- Si \(\varrho^2_M\lbrack X_{j_0}\lvert X^{(k)}\rbrack=1\), alors nous observons constamment :
Nous utilisons la définition de \(\varrho^2_M\) et le fait que \(\Sigma_{X^{(k)}}^{-1}\) soit aussi définie positive. \(\quad \square\)
Remarque 2. La non corrélation implique que \(X_{j_0}\) est orthogonale au sous-espace engendré par \(X^{(k)}\). Dans certains cas, comme le cas de la loi Normale, nous avons alors l’indépendance de \(X_{j_0}\) et de \(X^{(k)}\). Lorsque \(k=1\), c’est-à-dire \(X^{(k)}=X_{j_1}\), alors \(\varrho^2_M\lbrack X_{j_0}\lvert X^{(k)}\rbrack=\varrho^2\lbrack X_{j_0},\ X_{j_1}\rbrack\).
Nous abordons, comme dans le cas d’un v.a. de dimension 2, un coefficient plus général. La loi \({\cal L}(X_{j_0}\lvert X^{(k)}=x^{(k)})\) est définie par :
Nous en déduisons les v.a. \({\mathbb E}\lbrack X_{j_0}\lvert X^{(k)}\rbrack\) et \({\mathbb V}ar\lbrack X_{j_0}\lvert X^{(k)}\rbrack\). Elles satisfont aux égalités suivantes :
Nous retrouvons l’équation de l’Analyse de la Variance théorique. Nous pouvons définir à présent :
Définition 4. Nous appelons coefficient théorique de dépendance multiple en moyenne ou rapport théorique de corrélation multiple de \(X_{j_0}\) par rapport à \(X^{(k)}\) le nombre :
La propriété principale de ce coefficient est la suivante :
Propriété 6. Si \({\mathbb H}\) désigne l’ensemble des fonctions \(h\) telles que \(h(X^{(k)})\) soit une v.a., alors :
Après avoir ajouté et retranché \({\mathbb E}\lbrack X_{j_0}\lvert X^{(k)}\rbrack\) dans le carré, nous le développons. \(\quad \square\)
Interprétation. La v.a. \({\mathbb E}\lbrack X_{j_0}\vert X^{(k)}\rbrack\) est la fonction de \(X^{(k)}\) qui est la plus proche de \(X_{j_0}\), au sens des moindres carrés. Le coefficient \(\eta^2\) représente la part de variation de \(X_{j_0}\) «expliquée» par cette fonction.
Propriété 7. Nous avons \(0\leq \eta^2\lbrack X_{j_0}\lvert X^{(k)}\rbrack\leq 1\).
- Si \(\eta^2\lbrack X_{j_0}\lvert X^{(k)}\rbrack=0\), alors nous observons constamment \({\mathbb E}\lbrack X_{j_0}\lvert X^{(k)}\rbrack={\mathbb E}\lbrack X_{j_0}\rbrack\) ; nous dirons alors que \(X_{j_0}\) est indépendante en moyenne de \(X^{(k)}\). Dans ce cas nous avons également la non corrélation des variables.
- Si \(\eta^2\lbrack X_{j_0}\lvert X^{(k)}\rbrack=1\), alors nous observons constamment \(X_{j_0}={\mathbb E}\lbrack X_{j_0}\lvert X^{(k)}\rbrack\) ; nous dirons alors que \(X_{j_0}\) est totalement dépendante en moyenne de \(X^{(k)}\). Nous avons naturellement la relation :
Ces affirmations sont des conséquences directes des Propriétés \(4\) et \(6\) ci-avant. \(\quad \square\)
Soit \(j_0,\ j_0^{\prime},\ j_1,\cdots,\ j_k\in \lbrace 1,\cdots,\ p\rbrace\) des indices différents les uns des autres. Nous considérons les régressions linéaires \(RL(X_{j_0}\lvert X^{(k)})\) et \(RL(X_{j_0^{\prime}}\lvert X^{(k)})\)
Définition 5. Nous appelons coefficient théorique de corrélation linéaire partielle de \(X_{j_0}\) et \(X_{j_0^{\prime}}\) par rapport à \(X^{(k)}\) le nombre :
Interprétation. Le coefficient de corrélation partielle met en évidence l’éventuelle relation linéaire entre les v.a. \(X_{j_0}\) et\(X_{j_0^{\prime}}\), après avoir ôté de chacune d’elles toute variation expliquée par le v.a. \(X^{(k)}\).
Propriété 8. Nous avons l’égalité :
En particulier lorsque \(k=1\), c’est-à-dire \(X^{(k)}=X_{j_1}\), l’expression précédente devient :
La Propriété \(4\) et un calcul direct nous donne ces résultats. \(\quad \square\)
Haut de la page.