Processus de Poisson composé

Un processus de Poisson composé, nommé d'après le mathématicien français Siméon Denis Poisson, est un processus stochastique en temps continu à droite limité à gauche (Càdlàg). C'est en particulier un processus de Lévy.

Définition

Un processus de Poisson composé est un processus aléatoire indexé par le temps qui s’écrit Z t = n = 1 N t Y n {\displaystyle Z_{t}=\sum _{n=1}^{N_{t}}Y_{n}} ( N t ) t [ 0 , + [ {\displaystyle (N_{t})_{t\in [0,+\infty [}} est un processus de Poisson et ( Y i ) i N {\displaystyle (Y_{i})_{i\in \mathbb {N} }} est une suite de variables aléatoires indépendantes et identiquement distribuées et indépendantes de ( N t ) {\displaystyle (N_{t})} .

Propriétés

Accroissements

Comme tout processus de Lévy, le processus de Poisson composé est à accroissements indépendants et à accroissements stationnaires. De plus, les lois de ses accroissements sont infiniment divisibles.

Moments

Espérance

Moment d'ordre 1 —  Si Y 1 {\displaystyle Y_{1}} admet un moment d'ordre 1, alors pour tout t [ 0 , + [ {\displaystyle t\in [0,+\infty [} la variable aléatoire Z t {\displaystyle Z_{t}} possède un moment d'ordre 1 et

E ( Z t ) = λ t E ( Y 1 ) , {\displaystyle \mathbb {E} (Z_{t})=\lambda t\mathbb {E} (Y_{1}),}
λ {\displaystyle \lambda } est l'intensité du processus de Poisson ( N t ) t [ 0 , + [ {\displaystyle (N_{t})_{t\in [0,+\infty [}} .


Démonstration

Fixons t {\displaystyle t} et montrons que Z t {\displaystyle Z_{t}} est intégrable.

E ( | Z t | ) = n 1 1 1 N t = n | k = 1 n Y k | d P n 1 E ( 1 1 N t = n k = 1 n | Y k | ) {\displaystyle \mathbb {E} (|Z_{t}|)=\sum _{n\geq 1}\int 1\!\!1_{N_{t}=n}\left|\sum _{k=1}^{n}Y_{k}\right|d\mathbb {P} \leq \sum _{n\geq 1}\mathbb {E} \left(1\!\!1_{N_{t}=n}\sum _{k=1}^{n}|Y_{k}|\right)} .

Mais 1 1 N t = n {\displaystyle 1\!\!1_{N_{t}=n}} et k = 1 n | Y k | {\displaystyle \sum _{k=1}^{n}|Y_{k}|} sont indépendants, d'où

E ( | Z t | ) n 1 P ( N t = n ) E ( k = 1 n | Y k | ) n 1 P ( N t = n ) n E ( | Y 1 | ) E ( N t ) E ( | Y 1 | ) {\displaystyle \mathbb {E} (|Z_{t}|)\leq \sum _{n\geq 1}\mathbb {P} (N_{t}=n)\mathbb {E} \left(\sum _{k=1}^{n}|Y_{k}|\right)\leq \sum _{n\geq 1}\mathbb {P} (N_{t}=n)n\mathbb {E} (|Y_{1}|)\leq \mathbb {E} (N_{t})\mathbb {E} (|Y_{1}|)} .

Or N t {\displaystyle N_{t}} suit une loi de Poisson de paramètre λ t {\displaystyle \lambda t} , d'où E ( | Z t | ) < λ t E ( | Y 1 | ) < + {\displaystyle \mathbb {E} (|Z_{t}|)<\lambda t\mathbb {E} (|Y_{1}|)<+\infty } .

De la même façon et en utilisant le Théorème de convergence dominée, on peut montrer cette fois que E ( Z t ) = λ t E ( Y 1 ) {\displaystyle \mathbb {E} (Z_{t})=\lambda t\mathbb {E} (Y_{1})} .


Variance

Variance —  Si Y 1 {\displaystyle Y_{1}} admet un moment d'ordre 2, alors pour tout t {\displaystyle t} , Z t {\displaystyle Z_{t}} admet un moment d'ordre 2 et on a

V a r ( Z t ) = λ t E ( Y 1 2 ) {\displaystyle \mathrm {Var} (Z_{t})=\lambda t\mathbb {E} (Y_{1}^{2})} .
Démonstration

Fixons t {\displaystyle t} . On conditionne par le système complet d'événements { N t = n } {\displaystyle \{N_{t}=n\}} pour montre que Z t {\displaystyle Z_{t}} possède un moment d'ordre 2.

E ( | Z t | 2 ) = n 1 E ( | k = 1 N t Y k | 2 | N t = n ) P ( N t = n ) {\displaystyle \mathbb {E} (|Z_{t}|^{2})=\sum _{n\geq 1}\mathbb {E} \left(\left|\sum _{k=1}^{N_{t}}Y_{k}\right|^{2}\,{\bigg |}N_{t}=n\right)\mathbb {P} (N_{t}=n)} .

Par indépendance de processus ( N t ) t {\displaystyle (N_{t})_{t}} avec la suite ( Y i ) i {\displaystyle (Y_{i})_{i}} ,

E ( | k = 1 N t Y k | 2 | N t = n ) = E ( | k = 1 n Y k | 2 ) {\displaystyle \mathbb {E} \left(\left|\sum _{k=1}^{N_{t}}Y_{k}\right|^{2}\,{\bigg |}N_{t}=n\right)=\mathbb {E} (|\sum _{k=1}^{n}Y_{k}|^{2})} .

Ainsi

E ( | Z t | 2 ) = n 1 E ( | k = 1 n Y k | 2 ) P ( N t = n ) n 1 E ( k = 1 n | Y k | 2 ) P ( N t = n ) {\displaystyle \mathbb {E} \left(|Z_{t}|^{2}\right)=\sum _{n\geq 1}\mathbb {E} \left(\left|\sum _{k=1}^{n}Y_{k}\right|^{2}\right)\mathbb {P} (N_{t}=n)\leq \sum _{n\geq 1}\mathbb {E} \left(\sum _{k=1}^{n}|Y_{k}|^{2}\right)\mathbb {P} (N_{t}=n)}

On a alors

E ( | Z t | 2 ) n 1 ( n V a r ( | Y 1 | ) + ( n E ( | Y 1 | ) ) 2 ) P ( N t = n ) E ( N t ) V a r ( | Y 1 | ) + E ( N t 2 ) E ( | Y 1 | ) 2 {\displaystyle \mathbb {E} (|Z_{t}|^{2})\leq \sum _{n\geq 1}(n\mathrm {Var} (|Y_{1}|)+(n\mathbb {E} (|Y_{1}|))^{2})\mathbb {P} (N_{t}=n)\leq \mathbb {E} (N_{t})\mathrm {Var} (|Y_{1}|)+\mathbb {E} (N_{t}^{2})\mathbb {E} (|Y_{1}|)^{2}}

( Z t ) t {\displaystyle (Z_{t})_{t}} est donc de carré intégrable. Il faut donc maintenant exprimer E ( Z t 2 ) {\displaystyle \mathbb {E} (Z_{t}^{2})} .

E ( Z t 2 ) = n 1 E ( Z t 2 | N t = n ) P ( N t = n ) = E ( N t ) V a r ( Y 1 ) + E ( N t 2 ) ( E ( Y 1 ) ) 2 {\displaystyle \mathbb {E} (Z_{t}^{2})=\sum _{n\geq 1}\mathbb {E} (Z_{t}^{2}|N_{t}=n)\mathbb {P} (N_{t}=n)=\mathbb {E} (N_{t})\mathrm {Var} (Y_{1})+\mathbb {E} (N_{t}^{2})(\mathbb {E} (Y_{1}))^{2}}

D'où

V a r ( Z t ) = E ( N t ) V a r ( Y 1 ) + V a r ( N t ) ( E ( Y 1 ) ) 2 = λ t E ( Y 1 2 ) . {\displaystyle \mathrm {Var} (Z_{t})=\mathbb {E} (N_{t})\mathrm {Var} (Y_{1})+\mathrm {Var} (N_{t})(\mathbb {E} (Y_{1}))^{2}=\lambda t\mathbb {E} (Y_{1}^{2}).}

Loi des grands nombres

On peut écrire une loi des grands nombres pour le processus de Poisson composé.

Théorème — Si les Y i {\displaystyle Y_{i}} ont un moment d'ordre 2, alors

P ( lim t + Z t N t = E ( Y 1 ) ) = 1 {\displaystyle \mathbb {P} \left(\lim _{t\to +\infty }{\dfrac {Z_{t}}{N_{t}}}=\mathbb {E} (Y_{1})\right)=1}
Démonstration

D'après la loi des grands nombres sur ( N t ) t {\displaystyle (N_{t})_{t}} , on a lim t + N t t = λ {\displaystyle \lim _{t\to +\infty }{\dfrac {N_{t}}{t}}=\lambda } . D'où lim t + N t = + {\displaystyle \lim _{t\to +\infty }N_{t}=+\infty } presque sûrement.

Y 1 , Y 2 , , Y N {\displaystyle Y_{1},Y_{2},\cdots ,Y_{N}} sont i.i.d. et de carré intégrable. d'après la loi gforte des grands nombres pour les ( Y i ) i {\displaystyle (Y_{i})_{i}} on a

i = 1 N Y i N N + E ( Y 1 ) . {\displaystyle {\dfrac {\sum _{i=1}^{N}Y_{i}}{N}}{\underset {N\to +\infty }{\longrightarrow }}\mathbb {E} (Y_{1}).}

Comme N t {\displaystyle N_{t}} tend presque sûrement vers + {\displaystyle +\infty } , on a le résultat.

Fonction caractéristique

La fonction caractéristique de ( Z t ) t {\displaystyle (Z_{t})_{t}} détermine entièrement sa loi de probabilité.

Théorème —  La fonction caractéristique d'un processus de Poisson composé ( Z t ) t {\displaystyle (Z_{t})_{t}} d'intensité λ {\displaystyle \lambda } s'écrit

Φ Z t ( ξ ) = e λ t ( Φ Y 1 ( ξ ) 1 ) {\displaystyle \Phi _{Z_{t}}(\xi )=\mathrm {e} ^{\lambda t(\Phi _{Y_{1}}(\xi )-1)}}
Démonstration

Par définition de la fonction caractéristique et par la formule de la formule de l'espérance totale, on a

Φ Z t ( ξ ) = n 0 E ( e i ξ Z t | N t = n ) P ( N t = n ) = n 0 E ( e i ξ j = 0 N t Y j | N t = n ) P ( N t = n ) {\displaystyle \Phi _{Z_{t}}(\xi )=\sum _{n\geq 0}\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi Z_{t}}|N_{t}=n)\mathbb {P} (N_{t}=n)=\sum _{n\geq 0}\mathbb {E} \left(\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=0}^{N_{t}}Y_{j}}{\bigg |}N_{t}=n\right)\mathbb {P} (N_{t}=n)}

Et par indépendance entre le processus ( N t ) t {\displaystyle (N_{t})_{t}} et la suite de variables aléatoires ( Y j ) j {\displaystyle (Y_{j})_{j}} , on a que E ( e i ξ j = 0 N t Y j | N t = n ) = E ( e i ξ j = 1 n Y j ) . {\displaystyle \mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=0}^{N_{t}}Y_{j}}|N_{t}=n)=\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}}).} D'où

Φ Z t ( ξ ) = n 0 E ( e i ξ j = 1 n Y j ) e λ t ( λ t ) n n ! . {\displaystyle \Phi _{Z_{t}}(\xi )=\sum _{n\geq 0}\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}})\mathrm {e} ^{-\lambda t}{\dfrac {(\lambda t)^{n}}{n!}}.}

Et par indépendance entre les Y j {\displaystyle Y_{j}} , on a E ( e i ξ j = 1 n Y j ) = Φ Y 1 ( ξ ) n {\displaystyle \mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}})=\Phi _{Y_{1}}(\xi )^{n}} . On a donc

Φ Z t ( ξ ) = e λ t n 0 ( Φ Y 1 ( ξ ) ) n ( λ t ) n n ! = e λ t ( Φ Y 1 ( ξ ) 1 ) . {\displaystyle \Phi _{Z_{t}}(\xi )=\mathrm {e} ^{-\lambda t}\sum _{n\geq 0}(\Phi _{Y_{1}}(\xi ))^{n}{\dfrac {(\lambda t)^{n}}{n!}}=\mathrm {e} ^{\lambda t(\Phi _{Y_{1}}(\xi )-1)}.}

Théorème central limite

On peut établir un théorème de convergence pour le processus ( Z t ) t {\displaystyle (Z_{t})_{t}} .

Théorème —  Soit ( Z t ) t {\displaystyle (Z_{t})_{t}} un processus de Poisson composé d'intensité Λ {\displaystyle \Lambda } . On suppose les Y i {\displaystyle Y_{i}} centrées, réduites et indépendantes et identiquement distribuées. On a alors la convergence en loi suivante

Z t N t   L t +   N ( 0 , 1 ) . {\displaystyle {\dfrac {Z_{t}}{\sqrt {N_{t}}}}\ {\underset {t\to +\infty }{\xrightarrow {\mathcal {L}} }}\ {\mathcal {N}}(0,1).}
Démonstration

On utilise la fonction caractéristique de ( Z t ) t {\displaystyle (Z_{t})_{t}} et on fait un développement limité de Φ Y 1 {\displaystyle \Phi _{Y_{1}}} , au voisinage de 0 (ce qui revient à faire tendre t vers l'infini). On reconnaitra la fonction caractéristique d'une variable aléatoire suivant une loi Normale. on conclut alors par théorème de continuité de Paul-Levy

Annexes

Bibliographie

  • D. Applebaum, Lévy Processes and Stochastic Calculus, PPUR presses polytechniques, 2009
  • J. Bertoin, Lévy Processes, Cambridge University Press, Cambridge, 1996. (ISBN 0-52164-632-4)
  • Y. Caumel, Probabilités et Processus Stochastiques, Springer Verlag France, 2011, (ISBN 2817801628)

Notes et références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Compound Poisson process » (voir la liste des auteurs).
  • icône décorative Portail des probabilités et de la statistique