Cours de Probabilités : Modèles et Applications. Anne Philippe
56 pages
Catalan

Cours de Probabilités : Modèles et Applications. Anne Philippe

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
56 pages
Catalan
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Cours de Probabilités : Modèles et Applications.
1 2Anne Philippe & Marie-Claude Viano
Niveau Master 1
Université de Nantes
Année 2009-2010
1. Anne.Philippe@univ-nantes.fr
2. Marie-Claude.Viano@univ-lille1.fr Table des matières
Chapitre 1. Conditionnement 4
1.t par un événement 4
2. Conditionnement par une partition au plus dénombrable d’événements 6
3.t par une tribu 10
Annexe : Chaînes de Markov à espace d’états au plus dénombrable 16 : Démonstration de la Proposition 1.10 19
Chapitre 2. Vecteurs Gaussiens 21
1. Rappels : vecteurs aléatoires, covariance, fonction caractéristique. 21
2. Lois gaussiennes dansR 22
3. Vecteurs Gaussiens 23
4. Vecteur gaussien et indépendance 24
5. Existence 26
6. Densité d’un vecteur gaussien 26
7. Vecteur gaussien et conditionnement 27
8. Projection d’un vecteur gaussien 29
Chapitre 3. Convergences 32
1. Définition des modes de convergence 32
2. Quelques propriétés 32
3. Compléments sur la convergence presque sûre 33
4. Théorème de Borel-Cantelli. 34
Chapitre 4. Sommes de variables aléatoires 36
1. Inégalité de Kolmogorov 36
2. Loi Forte des Grands Nombres 37
3. Théorème de Glivenko-Cantelli 40
Chapitre 5. Convergence en loi 44
1. Définitions 44
2. Convergence en loi et convergence en probabilité 45
3. Propriétés de la convergence en loi 46
4. Convergence en loi et fonctions caractéristiques 47
5. Théorème central limite 48
6. de Cramér 50
7. Théorème de Lindberg-Feller 53
3 CHAPITRE 1
Conditionnement
Dans ce chapitre, ( ;A;P) désigne un ...

Sujets

Informations

Publié par
Nombre de lectures 325
Langue Catalan

Extrait

Cours de Probabilités : Modèles et Applications.
AnneiliheppP1&elaudraMC-eiViano2
1. Anne.Philippe@univ-nantes.fr 2. Marie-Claude.Viano@univ-lille1.fr
Niveau Master 1
Université de Nantes Année 2009-2010
Table des matières Chapitre 1. Conditionnement 1. Conditionnement par un événement 2. Conditionnement par une partition au plus dénombrable d’événements 3. Conditionnement par une tribu Annexe : Chaînes de Markov à espace d’états au plus dénombrable Annexe : Démonstration de la Proposition 1.10 Chapitre 2. Vecteurs Gaussiens 1. Rappels : vecteurs aléatoires, covariance, fonction caractéristique. 2. Lois gaussiennes dansR 3. Vecteurs Gaussiens 4. Vecteur gaussien et indépendance 5. Existence 6. Densité d’un vecteur gaussien 7. Vecteur gaussien et conditionnement 8. Projection d’un vecteur gaussien Chapitre 3. Convergences 1. Définition des modes de convergence 2. Quelques propriétés 3. Compléments sur la convergence presque sûre 4. Théorème de Borel-Cantelli. Chapitre 4. Sommes de variables aléatoires 1. Inégalité de Kolmogorov 2. Loi Forte des Grands Nombres 3. Théorème de Glivenko-Cantelli Chapitre 5. Convergence en loi 1. Définitions 2. Convergence en loi et convergence en probabilité 3. Propriétés de la convergence en loi 4. Convergence en loi et fonctions caractéristiques 5. Théorème central limite 6. Théorème de Cramér 7. Théorème de Lindberg-Feller
3
4 4 6 10 16 19 21 21 22 23 24 26 26 27 29 32 32 32 33 34 36 36 37 40 44 44 45 46 47 48 50 53
CHAPITRE 1
Conditionnement
Dans ce chapitre,,A,P)désigne un espace probabilisé. 1. Conditionnement par un événement On se donneBun événement (i.e.B∈ A) tel queP(B)>0. Pour toutA∈ A, on pose QB(A) =P(PB(B)A). Exercice 1.Montrer queQBdéfinit une probabilité sur,A)44 Définition 1.1.QBest la mesure de probabilité sachant l’événementB. On la note souvent P(∙|B) Proposition 1.1.SoitXune variable aléatoire. SiXestPintégrable i.e.E|X|:=R|X|dP<alorsXest aussiP(∙|B)intégrable. De plus, on a E(X|B)de=fZXdP(∙|B) =P1(B)ZBXdP=P1(B)E(XIB).(1.1) E(X|B)est l’espérance deXsachant (ou conditionnelle à) l’événementB. Démonstration.Ce résultat se démontre par étapes, en commençant par une fonction in-dicatrice, ce qui permet de passer aux fonctions étagées puis aux fonctions mesurables positives, pour conclure sur les fonctions intégrables. Étape 1 :X=IA: ZIAdP(∙|B) =P(A|B) =P(PB(B)A) 1)ZIBAdP=P1(B)ZBIAdP = P(B Étape 2 :X=PjJλjIAjJest un ensemble fini et les(Aj)sont des événements disjoints. On obtient la relation (1.1) grâce à la linéarité de l’intégrale et l’étape précédente. Étape 3 :Xest mesurable positive. Il existe une suite croissante de variables aléatoires(Xn)nNétagées positives qui converge versX. D’après l’étape 2., on a nNZXndP(∙|B) =P(1B)ZXndP. B On applique ensuite le théorème de Beppo Levi aux deux intégrales. Étape 4 :Xintégrable. La variable aléatoireXse décompose sous la formeX=X+Xavec (XX+(=mam=xax(XX,0,))0 Les variables aléatoiresX+etXsont positives etPintégrable. L’étape 3 assure que 1 ZX+dP(∙|B)P(B)ZBX+dP<+= 4
A. Philippe&M.-Cl. Viano : Probabilités et ZXdP(∙|B) =P(1B)ZBXdP<+donc|X|=X++XestP(∙|B)intégrable et on obtient (1.1).
5
Pour toute variable aléatoireX(admettons qu’elle est à valeurs dansR, mais elle pourrait aussi être à valeurs dans un autre espace) ce qui précède définit aussi la probabilité, sachantB, queXappartienne à n’importe quel borélien deR. Autrement dit on construit facilement la loi conditionnelle deXet, par le théorème de transfert, l’espérance conditionnelle se calcule aussi en utilisant cette loi : Définition 1.2.La loi deXsachant (ou conditionnelle à) l’événementBest la transportée de P(∙|B)parX. Soit, pour toutE∈ B(R) PX(E|B) =P(X1(E)|B)=P(XE|B) et on a E(X|B) =ZRxdPX(x|B). Exemple 1.1.Soit(X1, X2)un couple de variables aléatoires indépendantes et de même loi définie par P(X1=k) =αk(1α)kN ˜ αest fixé dans]0,1[. (On noteG(α)cette loi) On pose N=(12isnsiXon1X2 On va déterminer le loi deX1sachantN= 1. Commençons par calculer la loi de la variable aléatoireN. La loi du couple(X1, X2)étant symétrique, on a P(X1< X2) = 1/2(1P(X1=X2)). On en déduit P(N= 1) =P(X1=X2) +P(X1< X2+1)2(=1P(X1=X2)) =211 +XP(X1=k, X2=k)12=1 +XP(X1=k)P(X2=k)k=0k=0 car les variables aléatoires sont indépendantes, P(N==11)21 + (1α)2Xα2kk=0 =12+(111αα2)21=+1α La loi conditionnelle deX1sachant l’événement[N= 1]est donné par N= 1, X1=k)P(X2k, X1=k) P(X1=k|N= 1) =P=( P(N= 1)P(N= 1) = (1 +α)P(X1=k)XP(X2=`) `k = (1 +α)αk(1α)X(1α)α` `k = (1α2)α2k,kN.
A. Philippe& 6M.-Cl. Viano : Probabilités ˜ La loi conditionnelle deX1sachant l’événement[N= 1]est une loiG(α2). On en déduit que l’espérance deX1sachant l’événement[N= 1]est égale à E(X1|N= 1) =XkP(X1=k|N 1= 1) =α2α2 k=0 De la même façon, on obtient la loi deX1sachant[N= 2] P(X1=k|N= 2) = (1α2)αk1(1αk)k1 12 = 2est égale à+1αα+2α et l’espérance conditionnelle deX1sachantN . Remarque : L’espérance deX1s’exprime à partir des espérances conditionnellesE(X1|N= 1)etE(X1|N= 2). En effet, on peut décomposerX1en X1=X1IN=1+X1IN=2 et grâce à (1.1), on obtient EX1=E(X1IN=1) +E(X1IN=2) =P(N= 1)E(X1|N= 1) +P(N= 2)E(X1|N= 2) α = 1α k 2. Conditionnement par une partition au plus dénombrable d’événements Dans cette partie,(Bn)nNdésigne une partition deΩtelle queP(Bn)6= 0pour toutn. On noteBla tribu engendrée par cette partitionB=σ(Bn, nN). 2.1. Définition et propriétés de la probabilité conditionnelle.SoitAun événement. On définit la probabilité conditionnelle deAsachantBcomme étant la variable aléatoire qui prend la valeurP(A|Bi)pour toutωBi. On la noteP(A|B). On a donc pour toutωΩ P(A|B)(ω) =XP(A|Bn)IBn(ω)(1.2) nN Proposition 1.2.SoitAfixé, la variable aléatoireP(A|B)satisfait les propriétés suivantes : π1] :P(A|B)estB−mesurableB) dP=P(AB). [pour toutB∈ B, on aZP(A| B Démonstration.tant que fonction constante sur chaqueEn Bi, la variable aléatoireP(A|B) est mesurable. SoitB∈ B. Il s’écrit de la formeB=iI0Biet pour tout fonctionPintégrable f, on a fdP=X ZfdP. ZiBI0Bi On obtient P=X ZBP(A|B) diI0ZBiP(A|B) dP =iXI0ZBijXNP(A|Bj)IBjdP=iXI0jXNP(A|Bj)ZBiBjdP =XP(A|Bi)P(Bi)carBiBj=sij6=ietBisinon iI0 =P(A∩ ∪iI0Bi) =P(AB)
A. Philippe&M.-Cl. Viano : Probabilités 7 Proposition 1.3.Àωfixé,P(∙|B)(ω)est une mesure de probabilité. Démonstration.En effet, si on fixeωΩil existe un unique élément de la partition, noté,, Bωtel queωBω. On a alors P(∙|B)(ω) =XP(∙|Bj)IBj(ω) =P(∙|Bω). jN C’est bien une probabilité.Remarque 1.1.Supposons qu’il existe des éléments de la partition ayant une probabilité nulle. On noteI={i:P(Bi)6= 0}. La probabilité conditionnelle sachantBest alors définie par P(A|B)(ω) =XP(A|Bn)IBn(ω)(1.3) nI P(A|B)est nulle sur l’ensembleSiIcBi.| 2.2. Définition et propriétés de l’espérance conditionnelle. Définition 1.3.SoitXune variable aléatoire dansL1,A,P), l’espérance deXconditionnel-lement àBest la variable aléatoire définie par E(X|B)(ω)n=otZXdP(∙|B)(ω) =iXNE(X|Bi)IBi(ω)(1.4) pour toutωΩ. Remarque 1.2.Pour toutω, c’est tout simplement E(X|B)(ω) =ZXdP(∙|Bω) =E(X|Bω) Bωest l’unique élément de la partition contenantω.| Proposition 1.4.Soit(X, Y)un couple de variables aléatoires intégrables par rapport àPet (Xn)nNune suite de variables aléatoiresPintégrables. Àωfixé, l’espérance conditionnelle vérifie les propriétés suivantes (1) pour tout couple(λ, µ)R2,E(λX+µY|B)(ω) =λE(X|B)(ω) +µE(Y|B)(ω) (2) siXYp.s. alorsE(X|B)(ω)E(Y|B)(ω). (3) si (Xn)nest une suite croissante de variables aléatoires positives intégrables telle que limn→∞Xn=Xalorslimn→∞E(Xn|B)(ω) =E(X|B)(ω) Démonstration.Ces propriétés se déduisent immédiatement des propriétés de l’espérance. En effet, àωfixéE(∙|B)(ω)est égale à l’espérance par rapport à la mesure de probabilitéP(∙|Bω) Bωest l’unique élément de la partition contenantω. Proposition 1.5.SoitXune variable aléatoirePintégrable. (1) L’applicationω7→E(X|B)(ω)satisfait [π2] :pEo(uXr|tBo)testuBBmesurable B, on aZBE(X|B) dP=ZBXdP. En particulier en prenantB= Ω, on obtient E(E(X|B)) =E(X) i.e. les variables aléatoiresXetE(X|B)ont la même valeur moyenne. (2) SiYetXYsontPintégrables et siXestB−mesurable alors E(XY|B) =XE(Y|B) (3) SiXest indépendante de la tribuBalorsE(X|B) =E(X)
A. Philippe&M.-Cl. Viano : Probabilités
8
Démonstration. Preuve de(1).E(X|B)estB−mesurable car elle est constante sur chaqueBi. Pour toutB∈ B, on démontre l’égalitéZBE(X|B) dP=ZBXdPpar la méthode standard. Étape 1 :X=IAavecA∈ Ale résultat est immédiat car on retrouve la relation[π1]. Il suffit d’écrire la définition deE(X|B)i.e.E(IA|B) =P(A|B). Étape 2 :X=PjJλjIAjJest un sous ensemble fini. Le résultat découle de l’étape précé-dente en utilisant la linéarité de l’intégrale et de la linéarité de l’espérance condition-nelle. Étape 3 :Xexiste une suite de variables aléatoires étagées positivesest mesurable positive. Il telle quelimXn=X. L’étape précédente assure que pour toutn, on a ZBE(Xn|B) dP=ZBXndP. D’après (1)- (2) de la proposition 1.4,E(Xn|B)est presque sûrement croissante posi-tive. On peut donc appliquer le théorème de Beppo Levi, puis la propriété (3) de la proposition 1.4 pour obtenir le résultat. Étape 4 :Xest intégrable. On décomposeX=X+XavecEX±<. L’étape précédente assure que ZBE(X±|B) dP=ZBX±dP pour toutB∈ B. On peut ensuite conclure en utilisant les propriétés de linéarité. Preuve de(2).On a E(XY|B) =iXIE(XY|Bi)IBi=iXIZXYdP(.|Bi)IBi =iXIP(1Bi)ZBiXYdPIBi CommeXestB-mesurable doncXs’écrit de la formePiIxiIBiavecIN. On obtient E(XY|B) =X iNP1(Bi)ZBiXYdPIBi=iXNP1(Bi)jXNxjZBiIBjYdPIBi or IBjBi=(0IBjnissiio=n.j d’où iI(Bi)ZBiYdPIBi=iXIxiE(Y|Bi)IBi. E(XY|B) =XxiP1 D’autre part XE(Y|B) =XxiIBiXE(Y|Bj)IBj=XxiE(Y|Bj)IBjBi=XxiE(Y|Bi)IBi iI jI i,jI iI D’où l’égalité annoncée. Preuve de(3).Xétant indépendante deB, elle est aussi indépendante des variables aléatoires IBj. On a donc E(X|B) =XP(1Bi)E(XIBi)IBi=iXIP1(Bi)E(X)E(IBi)IBi=E(X)iXIIBi=E(X) iI
A. Philippe& 9M.-Cl. Viano : Probabilités 2.3. Conditionnement par une variable aléatoire discrète.SoitYune variable aléa-toire discrète,Y(Ω) ={yi, iIN}. On peut appliquer les résultats précédents à la tribu engen-drée parY,i.e.la tribu engendrée par la partition constituée des événementsBi=Y1({yi}), iI. On noteσ(Y)cette tribu. On définit l’espérance deXsachantYpar E(X|σ(Y)) :=E(X|Y) et de même la loi deXsachantY PX(.|σ(Y)) :=PX(.|Y). En particulier, on a E(X|Y) =XE(X|Y=yi)I[Y=yi]=g(Y). iN D’après[π2], ZBg(Y) dP=ZBXdP pour toutBσ(Y). Par conséquent pour tout partieCde{yi, iI}, on aY1(C)σ(Y)et la relation précédente s’écrit Xg(y)P(Y=y) =ZY1(C)XdP yC Exemple 1.2.Reprenons les variables aléatoires définies dans l’exemple 1.1. L’espérance deN conditionnellement àX1est donné par XE(N|X1=k)IX1=k. k=0 De plus, on a E(N|X1=k) =P(N= 1|X1=k) + 2P(N= 2|X1=k) P(X2k X1=k) + 2P(X2< k , X1=k) = P(X1=k) =P(X2k) + 2P(X2< k) = 1 +P(X2< k) =(11+Pjk=10(1α)αj= 2αkisiskk1=0 = 2αk Ainsi, on obtient E(N|X1) =X(2αk)IX1=k= 2αX1 k=0 k 2.4. Quelques remarques.sait désormais calculer l’espérance conditionnelle par rap-On port à une tribu engendrée par une partition dénombrable ou par une variable aléatoire discrète. Il est important de remarquer que les propriétés[π2]définissent l’espérance conditionnelle presque sûrement. En effet, Proposition 1.6.Si deux variables aléatoiresY1etY2vérifient les propriétés[π2]alors elles sont égalesPpresque sûrement. Démonstration.On a, pour toutB∈ B, ZB(Y1Y2) dP= 0(1.5) PosonsB1={Y1Y2>0}etB2={Y1Y2<0}. Ces deux événements sont dans la tribuBcar Y1Y2estB−mesurable. En appliquant (1.5) aux événementsB1etB2, on obtient qu’ils sont Pnégligeables. Par conséquent, on a bienY1Y2= 0Ppresque sûrement.
A. Philippe& 10M.-Cl. Viano : Probabilités Les conséquences de ce résultat sont les suivantes. (1) Si on modifie la variable aléatoirePE(X|Bi)IBisur un ensembleB−mesurable et de probabilité nulle alors elle vérifie toujours les propriétés[π2]. (2) Si l’on trouve une variable aléatoire qui vérifie les propriétés[π2]alors elle est presque sûrement égale àPE(X|Bi)IBi. Dans ce cas on parlera deversion de l’espérance conditionnelle.
3. Conditionnement par une tribu L’exemple suivant met en évidence la difficulté de généraliser au conditionnement par une variable aléatoire non nécessairement discrète. Exemple 1.3.Si(X, Y)est un couple de variables aléatoires indépendantes et de même loi uniforme sur[0,1]. On poseZ=X+Y. On souhaite donner un sens àP(Xa|Z=α)et à E(Xa|Z=α). Ici, la définition précédente n’a pas de sens, puisque les probabilitésP(Xa , Z=α)et P(Z=α)sont toutes les deux nulles. Une possibilité pourrait être de calculerP(Xa|Z[α, α+h])puis de prendresi elle existe la limite quandhtend vers zéro. On prendα <1. Soith >0tel que[α, α+h][0,1], on a P(Z[α, α+h]) = 1/2((α+h)2α2) = 1/2h2+αh et ahsia < α P(Xa, Z[α, α+h]) =P(Z[α, α+h])1/2(α+ha)2siαah+α P(Z[α, α+h])sia > h+α d’où 2a P(Xa|Z[α, α+h]) =1h2+2h(hhαα2++h2ahα)2ssiiαa<aαh+αh0(1αaiis<aaαα s 1sia > h+α On reconnaît la loi uniforme sur[0, α].k Le problème principal posé par cette définition est l’existence de la limite quandhtend vers zéro. Une “meilleure” voie est d’utiliser les propriétés[π2]comme définition de l’espérance condi-tionnelle et de vérifier que les propriétés obtenues dans la section précédente Définition 1.4.SoitBune tribu etXune variable aléatoire. L’espérance conditionnelle deX sachantBest la classe des variables aléatoiresE(X|B)qui vérifient[π2]i.e. pEo(uXr|tBo)tseutBBBasemboanru,ZleBE(X|B) dP=ZBXdP. On appelle version de l’espérance conditionnelle un élément de cette classe La suite de cette section s’organise de la façon suivante : 1) On montre queE(X|B)vérifie les propriétés obtenues dans la section précédente pour l’espé-rance conditionnelle (Section 3.1) 2) On montre l’existence deE(X|B)sous certaines hypothèses. (Section 3.2)
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents