le logo du site

5. Propriétés limites.

5.7. Théorème de la limite centrale.

Dans cette partie nous présentons un cas particulier de la convergence en loi. Ce résultat de la Théorie du Calcul des Probabilités est l’un des plus importants pour ses applications en Statistique. Il est connu sous le nom de Théorème de la Limite Centrale, en abrégé T.L.C.. Il a été présenté pour la première fois dans le cadre de la loi \({\cal B}(n\ ;\ 0,5)\) par De Moivre. Il a été étendu aux lois \({\cal B}(n\ ;\ p)\) par Laplace. Depuis il a été l’objet de nombreuses généralisations. Nous en présentons la forme classique, la plus souvent appliquée. Comme dans tout le site, nous notons \(Z\) la v.a. de loi Normale Standard \({\cal N}(0\ ;\ 1)\), \(\Phi(t)\) sa f.r. et \(\varphi(t)\) sa densité.

Propriété 1. Considérons une suite de v.a., indépendantes et de même loi pas nécessairement connue, \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\). Nous supposons qu’elles admettent une moyenne théorique \({\mathbb E}\lbrack X_n\rbrack=\mu < +\infty\) et une variance théorique \(\sigma^2\lbrack X_n\rbrack=\sigma^2 < +\infty\). Alors, pour tout \(t\in{\mathbb R}\) :

\[ P\Big(\frac{(\sum_{i=1}^nX_i)-n\mu}{\sigma\sqrt{n}}\leq t\Big)\underset{n\rightarrow+\infty}\longrightarrow \Phi(t), \]

c’est-à-dire que \(\displaystyle\frac{(\sum_{i=1}^nX_i)-n\mu}{\sigma\sqrt{n}}\overset{{\cal L}}{\underset{n\rightarrow+\infty}\longrightarrow}Z\) ou encore \(\displaystyle\lim_{n\rightarrow+\infty}{\cal L}(\frac{(\sum_{i=1}^nX_i)-n\mu}{\sigma\sqrt{n}})={\cal N}(0\ ;\ 1)\).

Interprétation. Ainsi les sommes de v.a. satisfaisant les conditions ci-dessus ont tendance à être distribuées selon une loi Normale et ceci quelle que puisse être la loi commune de départ de ces v.a.. C’est ce qui explique la présence, si souvent dans la nature, de cette loi particulière. Nous pouvons aussi affirmer que si le résultat d’une mesure est la somme de plusieurs «effets» indépendants et individuellement négligeables, alors cette mesure est distribuée selon une loi Normale. Notons que si les effets sont multiplicatifs, alors nous sommes en présence d’une loi Log-Normale.

Remarque 1. Nous pouvons encore écrire le théorème de la limite centrale sous la forme :

\[ \frac{\overline{X}-\mu}{\displaystyle\frac{\sigma}{\sqrt{n}}}\overset{{\cal L}}{\underset{n\rightarrow+\infty}\longrightarrow}Z. \]

Nous disons que la moyenne observée est asymptotiquement normale.

La propriété se démontre en effectuant, dans la fonction caractéristique de \(\displaystyle\frac{(\sum_{i=1}^nX_i)-n\mu}{\sigma\sqrt{n}}\), un développement limité de l’exponentielle, puis en constatant qu’elle converge vers la fonction \(\exp(-\displaystyle\frac{t^2}{2})\), en tout point \(t\in{\mathbb R}\), qui est la fonction caractéristique de la loi \({\cal N}(0\ ;\ 1). \quad\square\)

Remarque 2. Il existe des résultats sur la vitesse de convergence ; mais nous ne pouvons pas donner une valeur générale de \(n\) pour laquelle l’approximation est bonne. Il faut faire une étude particulière selon le type de loi. Mais il est clair que plus la distribution des \(X_n\) est symétrique plus la convergence est rapide.

Exemple 1. Considérons une variable \(X_n\) de loi Binomiale \({\cal B}(n\ ;\ p)\). Nous savons qu’elle s’écrit comme somme de \(n\) indicatrices indépendantes de même loi de Bernoulli \({\cal B}(1\ ;\ p)\). Comme \(\mu=p\) et \(\sigma^2=p(1-p)\), nous pouvons appliquer le T.C.L. qui nous donne :

\[ P\Big(\frac{X_n-np}{\sqrt{np(1-p)}}\leq t\Big)\underset{n\rightarrow+\infty}\longrightarrow \Phi(t), \]

Schématiquement nous écrivons :

\[ {\cal B}(n\ ;\ p)\approx {\cal N}(np\ ;\ np(1-p)). \]

En pratique nous pouvons utiliser l’approximation dès que \(n \geq 50\) et que \(10\leq np \leq n-10\), c’est-à-dire que \(p\) ne doit être ni trop petit ni trop grand. Il y a plusieurs manières de procéder ; soit \(k=1,\ \cdots,\ n\) :

\[ P(X_n=k)\approx\varphi\Big(\frac{k-np}{\sqrt{np(1-p)}}\Big)=\frac{1}{\sqrt{2\pi np(1-p)}} exp\Big(-\frac{(k-np)^2}{2np(1-p)}\Big), \] \[ P(X_n=k)\approx\Phi\Big(\frac{k-np+0,5}{\sqrt{np(1-p)}}\Big)-\Phi\Big(\frac{k-np-0,5}{\sqrt{np(1-p)}}\Big), \]

et

\[ P(X_n\leq k)\approx\Phi\Big(\frac{k-np+0,5}{\sqrt{np(1-p)}}\Big). \]

Le terme \(0,5\) est une correction de continuité dans la mesure où nous approchons une loi discrète par une loi continue. A titre d’illustration, voici le calcul dans R de \(P(X_n=21)\) pour \(n=60\) et \(p=0,33\):

dbinom(21,60,.33) ; réponse : 0.1018488.

dnorm(21,mean=60*.33,sd= sqrt(60*.33*(1-.33))) ; réponse : 0.1037455.

pnorm(21+.5,mean=60*.33,sd= sqrt(60*.33*(1-.33))) -
pnorm(21-.5,mean=60*.33,sd= sqrt(60*.33*(1-.33)))
; réponse : 0.1034557.

Mais l’approximation est aussi très acceptable pour de plus petites valeurs de \(n\), surtout lorsque \(p\) est proche de \(0,5\), la loi Binomiale est alors symétrique. A titre d’illustration, voici le calcul dans R de \(P(X_n=4)\) pour \(n=10\) et \(p=0,5\) :

dbinom(4,10,.5) ; réponse : 0.2050781.

dnorm(4,mean=10*.5,sd= sqrt(10*.5*(1-.5))) ; réponse : 0.2065766.

pnorm(4+.5,mean=10*.5,sd= sqrt(10*.5*(1-.5))) -
pnorm(4-.5,mean=10*.5,sd= sqrt(10*.5*(1-.5)))
; réponse : 0.2045240.

Si \(n \geq 50\) mais les conditions sur \(p\) ne sont pas satisfaites, alors nous pouvons utiliser l’approximation par la loi de Poisson. \(\quad\square\)

Remarque 3. Dans nos exemples de calcul, la variance de la loi Normale limite dépendant du paramètre \(p\) ; pour pouvoir calculer l’approximation nous avons supposé que ce paramètre était connu (\(p=0,33\) ou \(p=0,5\)). Lorsque la loi limite dépend d’un paramètre, il est possible dans certains cas de contourner cette difficulté par une stabilisation de la variance.

En conclusion de cette page nous donnons une généralisation du T.C.L. au cas de v.a. de lois différentes due à Liapounov.

Propriété 2. Considérons une suite de v.a., indépendantes, pas nécessairement de même loi, centrées \(\lbrace X_n,\ n\in {\mathbb N}\rbrace\). Nous supposons qu’il existe un nombre \(\delta > 0\) tel que, pour tout \(n\in {\mathbb N}\), \(\displaystyle {\mathbb E}\lbrack \mid X_n\mid^{2+\delta}\rbrack < +\infty\). Nous notons \(\sigma^2\lbrack X_n\rbrack=\sigma^2_n\) et \(\varsigma^2_n=\sum_{i=1}^n\sigma^2_i\) . Alors :

\[ \lim_{n\rightarrow+\infty}\frac{1}{\varsigma^2_n}\sum_{i=1}^n {\mathbb E}\lbrack \mid X_i\mid^{2+\delta}\rbrack = 0 \qquad \Longrightarrow \qquad \lim_{n\rightarrow+\infty}{\cal L}\left(\frac{\sum_{i=1}^nX_i}{\varsigma}\right)={\cal N}(0\ ;\ 1). \] Haut de la page.