Les lois de Poisson sont très utiles dans l’étude de la survenance dans le temps d’événements homogènes, contrairement aux lois Binomiales Négatives qui sont plus appropriées pour les événements hétérogènes.
Définition 1. Une v.a. \(X\) suit une loi de Poisson de paramètre \(\lambda\in {\mathbb R}_+^{\star}\) si :
\[ P(X=k)=\frac{\lambda^k}{k!}e^{-\lambda}, \quad \forall k\in {\mathbb N}. \]Nous notons \({\cal L}(X)={\cal P}(\lambda)\).
Modélisation. Une des premières utilisations d’une loi de Poisson pour un phénomème concret a été l’étude par Bortkewicz du nombre annuel de décès par coup de pied de cheval dans un Corps d'Armée, durant les années 1875 à 1880, dans l'armée prussienne. Dans le même ordre d’idée, le nombre d’absents par jour dans une entreprise, le nombre de clients dans une file d’attente durant des laps de temps de même durée ou encore le nombre annuel de sinistres par police dans un portefeuille d’assurance à risques homogènes, peuvent être décrits, sous certaines conditions, par une loi de Poisson. De manière précise nous avons la propriété suivante.
Propriété 1. Considérons la famille de v.a. \(\lbrace Y(\lbrack a, b \rbrack)\ ;\ a,\ b\in{\mathbb R}_+,\ a\le b\rbrace\) où \(Y(\lbrack a, b \rbrack)\) est le nombre de fois où un événement donné est observé durant l’intervalle de temps \(\lbrack a, b \rbrack\). Nous posons \(P(Y(\lbrace 0\rbrace)=0)=1\). Nous considérons les trois conditions suivantes.
1). (Homogénéité.) Il existe une constante \(\lambda\in{\mathbb R}_+\) telle que dans tout intervalle de temps d’une longeur infinitésimale \(\lbrack t, t+\Delta t\rbrack\), nous ayons :
\[ P(Y(\lbrack t, t+\Delta T \rbrack)=1)=\lambda\Delta t=1-P(Y(\lbrack t, t+\Delta T \rbrack)=0). \]C’est-à-dire qu’à chaque instant nous n’observons qu’une seule ou aucune réalisation de l’événement. (Les clients arrivent un par un dans la file d’attente.)
2). (Indépendance dans le temps.) Si \(\lbrack a, b\rbrack\bigcap\lbrack c, d\rbrack=\emptyset\) alors les v.a. \(Y(\lbrack a, b \rbrack)\) et \(Y(\lbrack c, d \rbrack)\) sont indépendantes. C’est-à-dire que le système n’a pas de mémoire ; ce qui se passe à un instant donné est indépendant du passé et de l’avenir.
3). (Stationnarité.) Pour tout intervalle de temps \(\lbrack a, b \rbrack\), nous avons :
\[ {\cal L}(Y(\lbrack a, b \rbrack))={\cal L}(Y(\lbrack 0, b-a \rbrack). \]C’est-à-dire que le nombre de réalisations de l’événement ne dépend pas de l’instant du début de l’observation mais de la durée de celle-ci.
Si les trois conditions précédentes sont satisfaites, alors :
\[ {\cal L}(Y(\lbrack 0, t \rbrack))={\cal P}(\lambda t),\qquad \forall t\in {\mathbb R}_+. \]Remarque 1. Très souvent l’homogénéité n’est pas satisfaite ; pour l'avoir il suffit, en première approximation, de réduire l’intervalle de temps. Ainsi, par exemple, pour le nombre de clients à un guichet, nous utiliserons un \(\lambda\) différent pour le lundi matin entre 9h et 10h et pour le vendredi entre 18h et 19h.
Remarque 2. Pour montrer que la somme des probabilités est égale à \(1\), ainsi que pour vérifier les autres propriétés que nous allons voir ci-dessous, nous utilisons l’égalité :
\[ e^a=\sum_{k=0}^{\infty}\frac{a^k}{k!}\quad \forall a\in {\mathbb R}. \]Calculs avec R. A la base, les commandes comprennent l’expression «pois» précédée d’une lettre spécifiant le calcul à réaliser. La deuxième option de la commande est \(\lambda\). Si \({\cal L}(X)={\cal P}(1,5)\), alors \(P(X=2)\) se détermine avec la commande :
dpois(2,1.5) ; réponse : 0.2510214.
Les valeurs \(P(X=0), P(X=1), P(X=2), P(X=3)\) se déterminent avec la commande :
dpois(c(0,1,2,3),1.5 ) ; réponse : 0.2231302 0.3346952 0.2510214 0.1255107.
Nous donnons quelques valeurs de la fonctions de répartition \(F_X(0)=P(X\leq 0)\), \( F_X(1)=P(X\leq 1)\), \( F_X(2)=P(X\leq 2)\), \( F_X(3)=P(X\leq 3)\) qui se déterminent avec la commande :
ppois(c(0,1,2,3),1.5,lower.tail=TRUE ) ; réponse : 0.2231 0.5578 0.8088 0.9343.
La médiane \(Me\lbrack X\rbrack\) se détermine avec la commande quantile :
qpois(0.5,1.5,lower.tail=TRUE) ; réponse : 1
C’est la même commande, mais adaptée, qui permet le calcul de tout quantile. Il est possible de réaliser des simulations d’observations d’une loi de Poisson avec la commande rpois et les paramètres souhaités.
Remarque 3. Une v.a. qui est distribuée selon une loi de Poisson peut en principe prendre toutes les valeurs entières, jusqu’à l’infini. Mais rapidement les probabilités deviennent négligeables. Ainsi par exemple si \({\cal L}(X)={\cal P}(1,5)\), la probabilité de dépasser \(7\) est de :
ppois(7,1.5,lower.tail=FALSE) : réponse : 0.0001695657 .
Propriété 2. La loi de Poisson apparaît également comme limite de la loi Binomiale. Nous avons \(\displaystyle\lim_{\scriptstyle n\rightarrow+\infty \atop\scriptstyle np\rightarrow\lambda}{\cal B}(n\ ;\ p)={\cal P}(\lambda)\).
Comme \(p\) devient de plus en plus petit, c’est à partir de cette propriété que la loi de Poisson a été appelée loi des événements rares. En pratique nous utilisons l’approximation dès que \(n \ge 50\) et que \(np\lt 10\) ou \(n(1-p)\lt 10\), c’est-à-dire que \(p\) (ou \(1-p\)) doit être assez petit.
Propriété 3. Si deux v.a. \(X_1\) et \(X_2\) sont indépendantes et respectivement de lois \({\cal P}(\lambda_1)\) et \({\cal P}(\lambda_2)\), alors \({\cal L}(X_1+X_2)={\cal P}(\lambda_1+\lambda_2)\).
Propriété 4. Si \({\cal L}(X)={\cal P}(\lambda)\), nous avons \({\mathbb E} \lbrack X\rbrack = \lambda\) et \(\sigma^2\lbrack X\rbrack = \lambda\).
Remarque 4. Cette égalité entre l’espérance et la variance nous donne une indication pour tenter de décrire un phénomène observé avec une loi de Poisson. Lorsque la moyenne et la variance observées sont à peu près égales, une telle loi pourrait être une bonne approche.
Remarque 5. Il n’existe pas d’expression simple donnant directement la médiane et plus généralement les quantiles d'une loi de Poisson. En pratique il faut utiliser la commande de R ci-dessus.
Propriété 5. Si \({\cal L}(X)={\cal P}(\lambda)\), le mode \(Mo\lbrack X\rbrack\) est compris entre les deux nombres \(\lambda-1\) et \(\lambda\). L’intervalle défini par ces deux nombres est de longueur \(1\), il contient soit un seul entier, soit deux, qui correspondent alors aux bornes de celui-ci. Ainsi nous avons soit un seul mode soit deux. Les coefficients d’asymétrie et d’aplatissement sont respectivement :
\[ \gamma_1\lbrack X\rbrack = \frac{\mu_3\lbrack X\rbrack}{\sigma^3\lbrack X\rbrack}=\frac{1}{\sqrt{\lambda}}\quad {\it et}\quad \gamma_2\lbrack X\rbrack = \frac{\mu_4\lbrack X\rbrack}{\sigma^4\lbrack X\rbrack}-3=\frac{1}{\lambda}. \]Remarque 6. Lorsque \(\lambda\rightarrow+\infty\), la forme de la distribution de \(X\) s’approche de la forme d’une distribution Normale (voir le deuxième exemple de la Stabilisation de la variance).
Propriété 6. Si \({\cal L}(X)={\cal P}(\lambda)\), la fonction caractéristique \(c_X(t)\), la fonction génératrice des moments \(g_X(t)\) et le moment factoriel d’ordre \(m\in {\mathbb N}^{\star}\), sont respectivement :
\[ c_X(t)=e^{\lambda e^{it}-\lambda}, \quad g_X(t)=e^{{\lambda e^t-\lambda}}\quad {\it et}\quad MF_m\lbrack X\rbrack={\mathbb E}\lbrack X(X-1)\cdots(X-(m-1))\rbrack=\lambda^m. \]Les lois de Poisson sont liées aux lois Gamma de la manière suivante :
Propriété 7. Soit \({\cal L}(X)={\cal GA}(k,\ \beta)\) et \({\cal L}(Y)={\cal P}(x\beta)\), pour \(x,\ \beta \in {\mathbb R}_+^{\ast}\) et \(k\in{\mathbb N}^{\ast}\). Nous avons \(P(X\leq x)=P(k\leq Y)\).
Intervalle de prédiction. Nous avons créé une procédure dans R qui permet de déterminer un intervalle de prédiction pour les lois de Poisson. Considérons la loi \({\cal P}(1,5)\). Nous utilisons la procédure en indiquant le paramètre de la loi et le seuil de signification de l’intervalle ; voici le résultat :
PoissonInterPred(1.5, 0.05) ;
réponse :
Intervalle de prédiction de la loi P( 1.5 ),
Seuil de l’intervalle : 5 %,
Intervalle : [ 0 ; 4 ].
Ainsi nous en déduisons que \(I_{pred}({\cal P}(1,5)\ ;\ 0,05)=\lbrack 0\ ;\ 4\rbrack\). Considérons la loi de Poisson \({\cal P}(0,04)\). Nous avons :
PoissonInterPred(0.04, 0.05) ;
réponse :
Intervalle de prédiction de la loi P( 0.04 ),
Seuil de l’intervalle : 5 %,
Intervalle : [ 0 ; 0 ].
Dans ce cas, nous en déduisons que l’intervalle de prédiction est réduit à un point : \(I_{pred}({\cal P}(0,04)\ ;\ 0,05)=\lbrace 0\rbrace\). Considérons la loi de Poisson \({\cal P}(16)\). Nous avons :
PoissonInterPred(16, 0.05) ;
réponse :
Intervalle de prédiction de la loi P( 16 ),
Seuil de l’intervalle : 5 %,
Intervalle : [ 9 ; 24 ].
Nous en déduisons que l’intervalle de prédiction est : \(I_{pred}({\cal P}(16)\ ;\ 0,05)=\lbrack 9\ ;\ 24\rbrack\). Ainsi nous constatons que l’intervalle est d’autant plus réduit que le paramètre est faible, jusqu’à ne contenir qu’un seul point lorsque ce dernier est proche de 0. Ceci est tout à fait naturel, rappelons en effet que pour une une v.a. \(X\) qui suit une loi \({\cal P}(\lambda)\) nous avons \(P(X=0)=\exp(-\lambda). \quad\square\)
Haut de la page.