Des présentations plus détaillées et plus générales des moments d’une v.a. et d’un v.a. se trouvent dans les pages 1.9.6, 1.9.7 et 1.9.8. Ici nous considérons une v.a. \(X\).
Définition 1. La variance théorique de \(X\) est définie, lorsqu’elle existe, par :
\[ \sigma^2\lbrack X\rbrack = {\mathbb V}ar\lbrack X\rbrack = {\mathbb E}\lbrack (X - {\mathbb E}\lbrack X\rbrack)^2\rbrack = {\mathbb E}\lbrack X^2\rbrack - ({\mathbb E}\lbrack X\rbrack)^2. \]La racine carrée de la variance est appelée écart type théorique. Nous notons :
\[ \sigma\lbrack X\rbrack= \sqrt{\sigma^2\lbrack X\rbrack}. \]Interprétation. Si «toutes» les observations possibles sont réalisées, alors la variance \(s^2(x)\) de celles-ci est égale à \(\sigma^2\lbrack X\rbrack\). C’est un paramètre de dispersion : plus la répartition de la v.a. est concentrée autour de l’espérance, plus l’écart type est faible. L’écart type est utilisé pour obtenir un paramètre ayant les mêmes unités que les observations.
Propriété 1. Si une v.a. \(X\) admet une variance, alors, pour tous les nombres réels \(a\) et \(b\) constants, nous avons la relation :
\[ \sigma^2\lbrack aX+b\rbrack = a^2 \sigma^2\lbrack X\rbrack. \]Remarque. La variance reste inchangée par translation.
Propriété 2. Si \(\sigma^2\lbrack X\rbrack= 1\), alors \(X\) est dite réduite. Si \(\sigma^2\lbrack X\rbrack= 0\), alors nous observons constamment \(X\equiv \mu\).
Propriété 3. Si \(X_1\) et \(X_2\) sont des v.a. indépendantes qui admettent des variances, alors l’égalité suivante est vérifiée :
\[ \sigma^2\lbrack X_1 + X_2\rbrack= \sigma^2\lbrack X_1\rbrack + \sigma^2\lbrack X_2\rbrack. \]La notions d’étendue théorique n’a pas toujours de sens, en particulier pour des variables prenant leurs valeurs dans l’ensemble \({\mathbb R}\) tout entier.
La définition de variance théorique peut se généraliser au cas des vecteurs aléatoires.
Définition 2. Soit \(X=\sideset{^t}{}(X_1,\ \cdots,\ X_p)\) un vecteur aléatoire de dimension \(p\), alors la matrice des variances-covariances théoriques de ce vecteur, lorsque cette expression existe, est une matrice ou tableau défini par :
\[ \Sigma\lbrack X\rbrack={\mathbb E}\left\lbrack (X - {\mathbb E}\lbrack X\rbrack)\ ^t(X - {\mathbb E}\lbrack X\rbrack)\right\rbrack= \] \[ =\pmatrix{ \sigma^2\lbrack X_1\rbrack & {\mathbb C}ov\lbrack X_1,\ X_2\rbrack & \cdots & {\mathbb C}ov\lbrack X_1,\ X_p\rbrack \cr {\mathbb C}ov\lbrack X_1,\ X_2\rbrack & \sigma^2\lbrack X_2\rbrack & \cdots & {\mathbb C}ov\lbrack X_2,\ X_p\rbrack \cr \vdots & \vdots & \ddots & \vdots\cr {\mathbb C}ov\lbrack X_1,\ X_p\rbrack & \cdots & \cdots & \sigma^2\lbrack X_p\rbrack \cr} \]où l’expression :
\[ {\mathbb C}ov\lbrack X_{j_1},\ X_{j_2}\rbrack={\mathbb E}\left\lbrack (X_{j_1} - {\mathbb E}\lbrack X_{j_1}\rbrack)(X_{j_2} - {\mathbb E}\lbrack X_{j_2}\rbrack)\right\rbrack= {\mathbb E}\lbrack X_{j_1}X_{j_2}\rbrack - {\mathbb E}\lbrack X_{j_1}\rbrack {\mathbb E}\lbrack X_{j_2}\rbrack , \]lorsqu’elle existe, est appelée covariance théorique entre \(X_{j_1}\) et \(X_{j_2}\) ; c’est un paramètre qui décrit partiellement la liaison entre deux variables.
Définition 3. Soit \(X=\sideset{^t}{}(X_1,\ \cdots,\ X_p)\) un vecteur aléatoire de dimension \(p\), alors la matrice des corrélations théoriques de ce vecteur, lorsque cette expression existe, est une matrice ou tableau défini par :
\[ \varrho\lbrack X\rbrack=\pmatrix{ 1 & \varrho\lbrack X_1,\ X_2\rbrack & \cdots & \varrho\lbrack X_1,\ X_p\rbrack \cr \varrho\lbrack X_1,\ X_2\rbrack & 1 & \cdots & \varrho\lbrack X_2,\ X_p\rbrack \cr \vdots & \vdots & \ddots & \vdots\cr \varrho\lbrack X_1,\ X_p\rbrack & \cdots & \cdots & 1 \cr} \]où l’expression :
\[ \varrho\lbrack X_{j_1},\ X_{j_2}\rbrack=\frac{{\mathbb E}\left\lbrack (X_{j_1} - {\mathbb E}\lbrack X_{j_1}\rbrack)(X_{j_2} - {\mathbb E}\lbrack X_{j_2}\rbrack)\right\rbrack} {\sigma\lbrack X_{j_1}\rbrack \sigma\lbrack X_{j_2}\rbrack}, \]lorsqu’elle existe, est appelée coefficient de corrélation linéaire entre \(X_{j_1}\) et \(X_{j_2}\) ; c’est un paramètre qui décrit partiellement la liaison entre deux variables.
Nous étudions dans les pages 1.9.7 et 1.9.8 les propriétés de ces quantités.
Haut de la page.