le logo du site

5. Propriétés limites.

5.1. Convergence en probabilité. \(\ast\)

Nous présentons la première notion de convergence stochastique. Considérons une suite de v.a. \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\), pas nécessairement indépendantes, ni identiquement distribuées, ainsi qu’une v.a. \(X\).

Définition 1. Nous disons que la suite \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\) converge en probabilité vers \(X\) si

\[ \forall \varepsilon > 0,\ \lim_{n\rightarrow +\infty}P(\mid X_n-X\mid > \varepsilon)=0. \]

Ceci est noté : \(X_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}X\).

Interprétation. Cette notion de convergence peut se comprendre de la manière suivante. Pour tout écart \(\varepsilon\) fixé, lorsque \(n\) devient très grand, il est de moins en moins probable d’observer un écart, supérieur à l’écart donné, entre \(X_n\) et \(X\).

Exemple 1. Soit \(c > 0\) un nombre fixé. Nous considérons la v.a. \(X=0\) et la suite de v.a. \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\) ne prenant que deux valeurs, définies par :

\[ \forall n\in {\mathbb N},\quad P(X_n=n^c)=\frac{1}{n}\quad {\rm et}\quad P(X_n=0)=1-\frac{1}{n}. \]

Il est facile alors de constater que, pour tout \(\varepsilon > 0\) fixé et pour tout \(n\geq 1\), nous avons :

\[ P(\mid X_n-X\mid > \varepsilon)=P(\mid X_n\mid > \varepsilon)=P(X_n=n^c)=\frac{1}{n}\underset{n\rightarrow+\infty}\longrightarrow 0. \]

Ainsi nous en déduisons \(X_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}0. \quad\square\)

Remarque 1. La convergence en probabilité ne donne aucune information sur la convergence des moments. A titre de contre-exemple, nous avons dans l’exemple ci-dessus :

\[ {\mathbb E}\lbrack X_n\rbrack= n^{c-1}\quad {\rm et}\quad {\mathbb E}\lbrack X\rbrack= 0. \]

Nous pouvons alors avoir des situations très différentes :

\[ \begin{array}{l c c c l} c = 0,5 & \Longrightarrow & {\mathbb E}\lbrack X_n\rbrack & = &\displaystyle \frac{1}{\sqrt{n}}\underset{n\rightarrow+\infty}\longrightarrow 0\ ;\\ c = 1 & \Longrightarrow & {\mathbb E}\lbrack X_n\rbrack & \equiv & 1\ ;\\ c = 2 & \Longrightarrow & {\mathbb E}\lbrack X_n\rbrack & = & n \underset{n\rightarrow+\infty}\longrightarrow +\infty.\\ \end{array} \]

Cependant l’existence d’un moment de \(\mid X_n-X\mid\) convergeant vers \(0\) nous donne une condition suffisante (mais pas nécessaire) pour la convergence en probabilité. De manière précise nous avons le résultat suivant :

Propriété 1. Nous donnons un critère pour la convergence en probabilité. Soit une suite de v.a. \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\) et une v.a. \(X\). Si pour un nombre \(a > 0 \), nous avons \({\mathbb E}\lbrack \mid X_n-X\mid^a\rbrack < +\infty\), alors :

\[ {\mathbb E}\lbrack \mid X_n-X\mid^a\rbrack\underset{n\rightarrow+\infty}\longrightarrow 0\quad \Longrightarrow \quad X_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}X. \]

En particulier

\[ \sigma^2\lbrack X_n\rbrack \underset{n\rightarrow+\infty}\longrightarrow 0\quad \Longrightarrow \quad X_n - {\mathbb E}\lbrack X_n\rbrack\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}0. \]

Propriété 2. Soit une suite de v.a. \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\) et une v.a. \(X\). Pour toute fonction continue \(h\), nous avons :

\[ X_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}X\quad \Longrightarrow \quad h(X_n)\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}h(X). \]

En particulier, si \(X_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}X\), alors

\[ \forall a\in {\mathbb R},\quad aX_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}aX\qquad {\rm et} \qquad P(X=0)=0 \quad\Longrightarrow \quad\frac{1}{X_n}\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}\frac{1}{X}. \]

Propriété 3. Soit deux suites de v.a. \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\) et \(\lbrace Y_n,\ n\in {\mathbb N}\rbrace\) et deux v.a. \(X,\ Y\). Pour toute fonction numérique continue \(h\) de \({\mathbb R}^2\), nous avons :

\[ X_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}X\quad {\rm et}\quad Y_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}Y\qquad\Longrightarrow \qquad h(X_n,\ Y_n)\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}h(X,\ Y). \]

En particulier, sous les mêmes conditions,

\[ X_n+Y_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}X+Y,\qquad X_nY_n\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}XY \qquad{\rm et} \qquad P(Y=0)=0 \quad\Longrightarrow \quad\frac{X_n}{Y_n}\overset{P}{\underset{n\rightarrow+\infty}\longrightarrow}\frac{X}{Y}. \]

Références. Des détails et une étude plus approfondie sont donnés, par exemple, dans l’ouvrage de W. Feller et l’ouvrage de C. Fourgeaud et A. Fuchs.

Haut de la page.