CM2 Convergence
Télécharger le CM2 Convergence en pdf
Pages : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Page 1 : Suites de variables aléatoires réellesConvergenceKhalid El Amine I.Department of MathematicsDans tout ce chapitre :• Ωest un ensemble non vide.• Ω, A est un espace probabilisable.• Ω, A, P est un espace probabilisé.• R sera toujours muni de la tribu de Borel, BR.• Toutes les variables aléatoires sont définies sur un espace probabilisé Ω, A, Pet à valeurs dans l’espace probabilisable R, BR.1Inégalités de Markov et ChebyshevLes inégalités de cette section fournissent des majorations sur la probabilité qu’une variable aléatoireprenne une valeur «extrême» dans la queue droite et/ou gauche d’une distribution.Théorème 1.1 Inégalité de MarkovSoit X une v.a.r.. Si X admet une espérance, alors :a R+,PX a EXaPreuve. bigbreakThéorème 1.2 Inégalité de MarkovSoit X une v.a.r.. Si X admet un moment d’ordre m Nalors :a R+,PX a EXmamPreuve.Théorème 1.3 Inégalité de ChebyshevSoit X une v.a.r.. Si X admet une variance, alors :a R+,PX EX a V Xa2Preuve.1
Page 2 : 2Variables aléatoires réelles2Convergence en loiDéfinition 2.1 Convergence en loiSoit XnnNune suite de v.a.rs et FXnnNla suite des fonctions de répartition associées.Soit X une v.a.r. et FX sa fonction de répartition.On dit que XnnNconverge en loi vers X, si et seulement si, FXnnNconverge simplement versFX en tout point de continuité de FX.Notation :XnL→XRemarque. Notons CFX = x R : FX est continue en x. AlorsXnL→X⇐⇒FXnx →n→+FXx ,x CFX⇐⇒PXn x →n→+PX x ,x CFXExemple. Soit Xnn1 une suite de v.a.r. discrètes tel que n N,XnΩ = 0, 1et de fonction de masse de probabilitépXnx =1/nsi x = 01 1/nsi x = 10si noni.epXn = 1n · I0 + 1 1n · I1Montrer que la suite Xnn1 converge en loi vers la v.a.r. constante égale à 1.Solution.Théorème 2.2 Soit g : R →R une fonction continue.Si une suite de v.a.rs XnnNconverge en loi vers une v.a.r. X, alors la suite de v.a.r. gXnnNconverge en loi vers la v.a.r. gX.Preuve.3Convergence en probabilitéDéfinition 3.1 Convergence en probabilitéSoit XnnNune suite de v.a.rs et X une v.a.r.. On dit que XnnNconverge en probabilité versX, si et seulement si,ϵ R+,PXn X ϵ →n→+0Notation :XnP→XRemarque.PXn X ϵ →n→+0⇐⇒PXn X ϵ →n→+1Notons que PXn X ϵnNest une suite de nombre réels.
Page 3 : Convergence3Exemple. Suite de v.a.rs discrètesSoit X une v.a.r. discrète avec XΩ = 0, 1 et f.m.p. pX définie par :pXx =2/3si x = 01/3si x = 10sinonSoit XnnNune suite de v.a.rs discrètes de terme généralXn =1 + 1nXMontrer que XnP→X.Solution.Exemple. Suite de v.a.rs absolument continuesSoit XnnNune suite de v.a.rs absolument continues. Supposons que pour tout n N, Xn suit unedistribution exponentielle de paramètre n, i.e. Xn En. Montrer que Xn converge en probabilitévers 0.Solution.Théorème 3.2 Soit g : R →R une fonction continue.Si une suite de v.a.rs XnnNconverge en probabilité vers une v.a.r. X, alors la suite de v.a.rsgXnnNconverge en probabilité vers la v.a.r. gX.Preuve.Proposition 3.3 Si XnnNconverge en probabilité vers X, alors elle converge en loi vers X.Preuve.4Convergence en moyenne4.1Espace LrDéfinition 4.1 Lr spaceSoit r 1, + et X une v.a.r..• On dit que X est r-intégrable, si et seulement si, EXr .• On appelle espace Lr, l’ensemble des v.a.rs r-intégrable, i.eLr = X : Ω→R ; EXr En particulier, si X est une v.a.r., alors• On dit que X est intégrable, et on note X L1, si X admet un moment d’ordre 1. i.e. :X L1⇐⇒EX +• On dit que X est de carré intégrable, et on note X L2, si X admet un moment d’ordre 2. i.e. :X L2⇐⇒EX2 +
Page 4 : 4Variables aléatoires réelles4.2Convergence en moyenne et en moyenne quadratiqueDéfinition 4.2 Convergence en moyenneSoit XnnNune suite de v.a.rs intégrables et X une v.a.r. intégrable.On dit que XnnNconverge en moyenne ou converge dans L1 vers X, si et seulement si,EXn X →n→+0Notation :XnL1→XRemarque. Notons que pour la convergence en moyenne, il est nécessaire que EXn X +,ce qui est généralement assuré en exigeant que Xn et X soient intégrables.Définition 4.3 Convergence en moyenne quadratiqueSoit XnnNune suite de v.a.rs de carré intégrable et X une v.a.r. de carré intégrable.On dit que XnnNconverge en moyenne quadratique ou converge dans L2 vers X, si et seulementsi,EXn X2 →n→+0Notation :XnL2→XRemarque. Notons que pour la convergence en moyenne quadratique, il est nécessaire que EXn X2 +, ce qui est généralement assuré en exigeant que Xn et X soient de carré intégrable.Exemple 1. Soit Xnn1 une suite de v.a.rs discrètes telle que pour tout n NXnΩ = 0, net f.m.p.pXnx =1 1n3si x = 01n3si x = n0sinonMontrer que Xnn1 convergence en moyenne quadratique et en moyenne vers la v.a.r. X = 0.Solution.Exemple 2. Soit Xnn1 une suite de v.a.rs discrètes telle que pour tout n NXnΩ = 0, net f.m.p.pXnx =1 1n2if x = 01n2if x = n0otherwiseLa suite Xnn1 converge-elle en moyenne quadratique vers la v.a.r. X = 0 ? et en moyenne ?Solution.
Page 5 : Convergence5Théorème 4.4 Soit g : R →R une fonction continue.soit XnnNune suite de v.a.rs et X une v.a.r..• Si XnnNconverge en moyenne quadratique vers X, alors la suite de v.a.rs gXnnNconvergeen moyenne quadratique vers gX.• Si XnnNconverge en moyenne vers X, alors la suite de v.a.rs gXnnNconverge en moyennevers gX.Preuve.Proposition 4.5 Soit XnnNune suite de v.a.rs et X une v.a.r.• Si XnnNconverge en moyenne quadratique vers X, alors elle converge en moyenne vers X.• Si XnnNconverge en moyenne vers X, alors elle converge en probabilité vers X.Preuve.4.3Convergence en moyenne d’ordre rDéfinition 4.6 Convergence en moyenne d’ordre rSoit r 1, +. Soit XnnNune suite de v.a.rs et X une v.a.r. telles que EXnr etEXr .On dit que XnnNconverge en moyenne d’ordre r ou converge dans Lr vers X, si et seulementsi,EXn Xr →n→+0Notation :XnLr→XExemple 1. Soit Xnn1 une suite de v.a.rs discrètes telle que pour tout n NXnΩ = 1, 0, 1et f.m.p.pXnx =12nsi x = 11 1nsi x = 012nsi x = 10sinonMontrer que, pour tout r 1, +, XnLr→0.Solution.Exemple 2. Soit Xnn1 une suite de v.a.rs absolument continues telle que Xn U0, 1n.Montrer que XnLr→0 pour tout r 1, +.Solution.Théorème 4.7 Soit XnnNune suite de v.a.rs et X une v.a.r.. Alors pour tout s r 1XnLs→X =⇒XnLr→XPreuve.
Page 6 : 6Variables aléatoires réelles5Convergence presque sûreDéfinition 5.1 Convergence presque sûreSoit XnnNune suite de v.a.rs et X une v.a.r.. On dit que XnnNconverge presque sûrementvers X, si et seulement si,existe un événement M tel que :1 PM = 12 ω M,Xnω →n→+XωNotation :Xnp.s.→XRemarque. On dit aussi que Xn converge vers X avec probabilité 1.Xnp.s.→X ⇐⇒Pω Ω:Xnω →n→+Xω = 1⇐⇒existe un événement N tel que :1 PN = 02 ω N c,Xnω →n→+Xω• La convergence presque sûre est la version probabilistique de la convergence simple des suites defonctions en analyse réelle.Exemple. On travaille dans l’espace probabilisé R, BR, P où P est la probabilité uniforme sur lesegment 0, 1, i.e :PB =ZBI0,1xdx =ZB0,1dx ,B BRSoit Xnn1 une suite de v.a.r. sur R, BR.1. Si Xn = I0, 1n . Montrer que Xnn1 converge simplement sur R vers la variable certaine X = 0.2. Si Xn = I0, 1n . Montrer que Xnn1 converge presque sûrement vers la variable certaine X = 0.Solution.Théorème 5.2 Soit g : R →R une fonction continue.Si une suite de v.a.rs XnnNconverge presque sûrement vers une v.a.r. X, alors la suite de v.a.rsgXnnNconverge presque sûrement vers la v.a.r. gX.Preuve.Proposition 5.3 Si XnnNconverge presque sûrement vers X, alors elle converge en probabilitévers X.Preuve.Theorem 5.1 Soit XnnNune suite de v.a.rs.si la suite converge• presque sûrement ;• ou en probabilité ;• ou en moyenne d’ordre r ;
Page 7 : Convergence7• ou en loi ;alors, la variable aléatoire limite est unique.Preuve.Diagramme des convergencesLe diagramme ci-dessous récapitule les liens entre les divers modes de convergence.Convergence L2Convergence L1Convergence p.s.Convergence en probabilitéConvergence en loiComposition et convergencesSoit g : R →R une fonction continue. Alors :• XnL→X =⇒gXnL→gX• XnP→X =⇒gXnP→gX• XnL1→X =⇒gXnL1→gX• XnL2→X =⇒gXnL2→gX• Xnp.s.→X =⇒gXnp.s.→gX6V.A.Rs Indépendantes et Identiquement DistribuéesLa f.r. ou f.d.p./f.m.p. d’une v.a.r. caractérise complètement sa distribution. En d’autres termes,elle contient tout ce que nous devons savoir sur la loi du caractère aléatoire de cette variable aléatoire.Si deux variables aléatoires donnent la même f.r., alors elles ont la même distribution.Définition 6.1 Soit X et Y deux v.a.rs.• On dit que X et Y sont identiquement distribuées i.d. en abrégé,si et seulement si, elles ont même distribution i.e. même f.r ou même f.d.p./f.m.p..• On dit que X et Y sont indépendantes identiquement distribuées, i.i.d. en abrégé,si et seulement si, elles sont indépendantes et elles ont même distribution loi.Note. On généralise cette définition pour une suite finie de v.a.rs Xini=1.Définition 6.2 Soit XnnNune suite de v.a.rs.• On dit que XnnNest identiquement distribuée i.d. en abrégé,si et seulement si, les Xn ont même distribution i.e. même f.r ou même f.d.p./f.m.p..• On dit que XnnNest indépendante identiquement distribuée, i.i.d. en abrégé,si et seulement si, les Xn sont indépendantes et elles ont même distribution.Définition 6.3 Soit XnnNune suite de v.a.rs.
Page 8 : 8Variables aléatoires réellesPour tout n 1, on poseSn =nXi=1XietMn = Snn = 1nnXi=1Xi Sn est appelée somme partielle d’ordre n de la suite XnnN. Mn est appelée moyenne arithmétique d’ordre n de la suite XnnN.Note. Notons que Sn et Mn, étant des sommes de variables aléatoires, sont elles-mêmes des variablesaléatoires.Remarque. En statistique, Mn est notée Xn et est appelée moyenne empirique.Propriété 6.4 Soit XnnNune suite de v.a.rs.• Si XnnNest identiquement distribuée et EX1 , alors, n NESn = nEX1etEMn = EX1• Si XnnNindépendante identiquement distribuée et EX12 , alors, n NV Sn = nV X1etV Mn = V X1nPreuve.7Loi des grands nombres7.1Loi faible des grands nombresThéorème 7.1 Loi faible des grands nombres LfGNSoit XnnNune suite de v.a.r.-i.i.d.. Si EX12 , alorsMnP→EX1Preuve. On applique l’inégalité de Chebyshev. ϵ 0PMn EX1 ϵ = PMn EMn ϵ V Mnϵ2= V X1nϵ2→n→+0La limite du terme à droite existe puisque V X1 est finie car EX12 est finie.Remarque.PMn EX1 ϵ →n→+0 ⇐⇒PMn EX1 ϵ →n→+1La LfGN dit que lorsque n augmente, la probabilité de l’événement "Mn est à moins de ϵ autour dela moyenne EX1" tend vers 1. Nous pouvons considérer ϵ comme une petite tolérance d’erreur parrapport à la moyenne EX1.Application de la LfGN.Exemple 1. Considérons l’expérience aléatoire qui consiste à lancer une pièce de monnaie n fois. SiSn représente le nombre de faces observées dans ces n lancers, alors Sn/n représente la proportion defaces dans ces n lancers.La loi des grands nombres prédit que les résultats de la variable aléatoire Sn/n seront, pour les grandsn, proches de 1/2.Rigoureusement, cela signifie que pour tout ϵ 0 arbitrairement petit, la probabilité de l’événement"la proportion de faces diffère de 1/2 de plus de ϵ" tend vers 0 lorsque n tend vers .
Page 9 : Convergence9En effet. Soit XiiNla suite de v.a.rs définie parXi =1si le i-ème lancer est face0sinonSoitSn = X1 + X2 + · · · + XnLa v.a.r. Sn compte le nombre de faces obtenues lors des n lancers.Les v.a.rs Xi sont i.i.d., Xi B1/2 et nous avonsEXi = EX1 = 12 et EXi2 = EX12 = 12Puisque EX12 = 12 , par la LfGN, il vientSnn = MnP→12Exemple 2. Considérons l’expérience aléatoire qui consiste à lancer un dé honnête à six face, n fois.Notons Xi le résultat du i-ème lancer. Alors Sn = X1 + X2 + · · · + Xn est la somme des nombre depoints obtenus lors des n lancers. Nous savons queEX1 = 7/2Les v.a.rs Xi sont i.i.d. avec EX12 = EX12 = 91/6 . Ainsi par la LfGN,Snn = MnP→727.2Loi forte des grands nombresThéorème 7.2 Loi forte des grands nombres LFGNKolmogorov-KhintchineSoit Xnn1 est une suite de v.a.r.-i.i.d.. AlorsMn converge presque sûrement ⇐⇒EX1 En cas de convergence :Mnp.s.→EX1Preuve.Application de la LFGN.Soit XnnNune suite de v.a.rs indépendantes1 Si pour tout n N, Xn Bα, alors EX1 = α.Puisque EX1 = α , la suite Mnn1 converge presque sûrement. DoncMnp.s.→α2 Si pour tout n N, Xn Pλ, alors EX1 = λ.Puisque EX1 = λ , la suite Mnn1 converge presque sûrement. DoncMnp.s.→λ3 Si pour tout n N, Xn N0, 1, alors EX1 = 0.PuisqueEX1 =12πZ +xe12 x2 =22πZ +0xe12 x2 =r2π la suite Mnn1 converge presque sûrement. DoncMnp.s.→0
Page 10 : 10Variables aléatoires réellesRemarque. Comme la convergence presque sûr implique la convergence en probabilité, nous avons,1 Si pour tout n N, Xn Bα, alors MnP→α2 Si pour tout n N, Xn Pλ, alors MnP→λ3 Si pour tout n N, Xn N0, 1, alors MnP→08Central Limit TheoremÉtant donné une v.a.r. X d’espérance EX et d’écart type σX, nous définissons sa standardiséecomme la nouvelle v.a.r.X= X EXσXXest donc obtenue en soustrayant de X son espérance et en divisant par son écart-type. On ditqu’on centre et on réduit. Rappelons que Xa pour espérance 0 et pour variance 1.Rappelons aussi que si X suit une distribution normale, alors sa standardisée Xsuit une distributionnormale standard et donc a pour espérance 0 et variance 1.Notons maintenant Sn la v.a.r. standardisée de Sn, i.e.Sn = Sn ESnσSnNous avons le théorème fondamentalThéorème 8.1 Central Limit Theorem CLTSoit Xnn1 une suite de v.a.r.-i.i.d.. Si EX12 et V X1 0, alors• la suite de terme généralSn = Sn ESnσSn= Sn nEX1pnV X1converge en loi vers une v.a.r. Zsuivant une loi normale standard N0, 1. i.e. :SnL→Z• En notant Φ la fonction de répartition de Z, il vientlimn→+FSnz = Φz ,z RPreuve.Corollaire 8.2 Soit XnnNune suite de v.a.r-i.i.d.. Si EX12 et V X1 0, alorsM nd→Zavec ZN0, 1Preuve. La v.a.r. M n, standardisée de, Mn vérifieM n = Mn EMnσMn= Sn ESnσSn= SnOn peut par conséquent appliquer le CLT à la suite de v.a.rs de terme générale M n.
Page 11 : Convergence119Application du Central Limit Theorem9.1PréliminairesNotations:• Le symbol est lu "est égal approximativement".• Le symbol est lu "suit approximativement".Définition 9.1 Échantillon aléatoireUne suite finie Xini=1 de n v.a.r-i.i.d. est appelée échantillon aléatoire de taille n ou n-échantillonaléatoire.Proposition 9.2 Formule de transformation affineSoit a R, b R. AlorsX Nµ, σ2 ⇐⇒Y = aX + b Naµ + b, a2σ2Preuve.9.2Approximation normale standard pour la somme partielle standardiséeet la moyenne arithmétique standardiséeProposition 9.3 Soit Xini=1 un n-échantillon aléatoire avec 0 V X1 . Pour n assez grandFSnz Φz ,z RetFM nz Φz ,z RPreuve.Interprétation. Pour n assez grand,Sn et M n suivent approximativement une loi normale standard, i.e.Sn N0, 1etM n N0, 1En pratique. En général, pour n 30, on utilise les approximations ci-dessus.9.3Approximation normale pour la moyenne arithmétiqueProposition 9.4 Soit Xini=1 un n-échantillon aléatoire avec 0 V X1 . Pour n assez grandMn NEMn, V Mni.eMn NEX1, V X1nInterprétation. Pour n assez grand,Mn suit approximativement une loi normale de paramètres µ = EX1 et σ2 = V X1/n.Preuve.Exemple. Soit XnnNune suite de v.a.r.-i.i.d. de Bernoulli de paramètre α = 1/2.Utilisez le CLT pour déterminer une distribution approximative de la moyenne arithmétique des 100premiers termes de la suite.Solution.
Page 12 : 12Variables aléatoires réelles9.4Approximation normale pour la somme partielleProposition 9.5 Soit Xini=1 un n-échantillon aléatoire avec 0 V X1 . Alors pour n assezgrandSn NESn, V Sni.eSn N nEX1, nV X1Interprétation. Pour n assez grand,Sn suit approximativement une loi normale de paramètres µ = nEX1 et σ2 = nV X1.Preuve.Exemple. Une pièce de monnaie équilibrée est lancée 400 fois. Utilisez le CLT pour calculer uneapproximation de la probabilité d’obtenir au moins 205 faces.Solution.Algorithme. Comment appliquer le CLT.1 Écrire la v.a.r. X qui nous intéresse comme la somme de n v.a.r.-i.i.d. Xi :X = X1 + · · · + Xn2 Calculer EX et V X en utilisant les formulesEX = nEX1etV X = nV X13 pour n assez grandLX NEX, V XOu bien, utiliser la standardisée de X.X= X EXpV Xsuit approximativement une loi normale standard.FXΦExemple. Un caissier de banque sert un par un les clients debout dans la file d’attente. Supposons quele temps de service en minutes Xi pour le client i a pour moyenne EXi = 2 min et V Xi = 1 min2.Supposons que les délais de service pour les différents clients de la banque sont indépendants. Soit Xle temps total que le caissier de banque passe à servir les 50 clients. Trouvez P90 X 110.Solution.
Page 13 : Convergence139.5Approximation normale pour la loi binomialeDéfinition 9.6 Soit α 0, 1.On dit qu’une v.a.r.discrète X suit une loi de Bernoulli deparamètre α, si et seulement si, sa fonction de masse de probabilité estpXk =1 αsi k = 0αsi k = 10sinonNotation:X Bα• Une v.a.r. qui suit une loi de Bernoulli est dite v.a.r. de Bernoulli.Proposition 9.7 Soit α 0, 1. Soit Xini=1 un n-échantillon aléatoire avec X1 Bα. AlorsSn =nXi=1Xi Bn, αPreuve.Proposition 9.8 Soit X Bn, α. Alors pour n assez grandX Nnα, nα1 αPreuve.En pratique. Lorsque n 30 et nα 5 et n1 α 5 ou bien nα 15 et n1 α 15, onutilise l’approximationBn, α Nnα, nα1 αPreuve. Pour n assez grand, le CLT nous permet d’approcher la loi de Sn par une loi normale, i.e :Bn, α NnEX1, nV X1Comme EX1 = α et V X1 = α1 α, il vientBn, α Nnα, nα1 αExemple. Soit n Net c R. Soit X une v.a.r. discrète telle que : X Bn, 0.6. On donnepX0 = 1039 etPEX c X EX + c = 0.951a Donner la f.m.p. de X.b Calculer approximativement la valeur de n.2a Par quelle loi peut-on approcher la loi de X ? Justifier.b Calculer approximativement la valeur de c.Solution.
Page 14 : 14Variables aléatoires réelles9.6Approximation normale pour la loi de PoissonDéfinition 9.9 Soit λ R+. On dit qu’une v.a.r. X suit une loi de Poisson de paramètre λ, si etseulement si, sa fonction de masse de probabilité estpXk =eλ λkk! ,k N0sinonoù k! est le factoriel de k.Notation :X Pλ• Une v.a.r. qui suit une loi de Poisson est dite v.a.r. de Poisson.Proposition 9.10 Soit α R+. Soit Xini=1 un n-échantillon aléatoire avec X1 Pα. AlorsSn =nXi=1Xi PnαPreuve.Proposition 9.11 Soit X Pλ. Alors, pour λ assez grandX Nλ, λPreuve.En pratique. Lorsque λ 15, on utilise l’approximationPλ Nλ, λEn posant λ = nα, la valeur minimale de n sera fixé par la valeur de α. On doit avoir n 15/α.Preuve. Pour n assez grand, le CLT nous permet d’approcher la loi de Sn par une loi normale, i.e :Pnα NnEX1, nV X1Comme EX1 = α et V X1 = α, il vientPnα Nnα, nαExemple. Le nombre d’étudiants X qui s’inscrivent à un cours de statistique est une variable aléatoirede Poisson de moyenne 100. Le professeur responsable du cours a décidé que si le nombre d’inscritsest de 120 ou plus, il enseignera le cours en deux sections distinctes, alors que si moins de 120 étudiantss’inscrivent, il enseignera à tous les étudiants ensemble dans une seule section. Quelle est la probabilitéque le professeur doive enseigner deux sections ?1 Donnez la solution exacte.2 Donnez une solution approximative.Solution.Résumé
Page 15 : Convergence15CLT en théorie.• FSnz →n→+Φz , z R• FM nz →n→+Φz , z RCLT en pratique. Pour n assez grand• Sn N0, 1. i.e. FSnz Φz ,z R.• M n N0, 1. i.e. FM nz Φz ,z R.• Sn NESn, V Sn = NnEX1, nV X1.• Mn NEMn, V Mn = NEX1, V X1n.9.7Correction de continuité pour les v.a.rs discrètesLorsqu’on approche une loi discrète par une loi continue, dans le but de faire des calculs de probabilités,le résultat est parfois peu satisfaisant. Afin d’améliorer la précision des calculs, un ajustement, connusous le nom de correction de continuité, est parfois nécessaire.Supposons que X soit une v.a.r. qui ne prend que des valeurs entières et telles queX NEX, V XPour tenir compte du caractère discret de X, nous écrivons la probabilité PX = k qui seraitexactement 0 sous l’approximation par la loi normale comme Pk 1/2 X k + 1/2 pour queX prenne ses valeurs dans un intervalle de longueur non nulle et appliquer l’approximation normaleà ce dernier. Ainsi• Pour k XΩ, on obtientPX = k = Pk 1/2 X k + 1/2Φ k + 1/2 EXpV X!Φ k 1/2 EXpV X!• Pour i, j XΩ avec i j, on obtientPi X j = Pi 1/2 X j + 1/2Φ j + 1/2 EXpV X!Φ i 1/2 EXpV X!Application à la loi binomiale.Si X Bn, α, alors pour n assez grand,X NEX, V X = Nnα, nα1 αet doncPX = k = Pk 1/2 X k + 1/2Φ k + 1/2 nppnp1 p!Φ k 1/2 nppnp1 p!Exemple. Supposons que X B50, 0.4. Calculer PX = 20.1 Donner la solution exacte.2 Donner une solution approchée.
Page 16 : 16Variables aléatoires réellesSolution.Application à la loi de Poisson. Si X Pλ, alors pour λ assez grand,X NEX, V X = Nλ, λet doncPX = k = Pk 1/2 X k + 1/2Φk + 1/2 λλΦk 1/2 λλExemple. Supposons que X P25. Calcules PX = 20.1 Donner la solution exacte.2 Donner une solution approchée.Solution.Free Online Statistical Table :http://stattrek.com/online-calculator/binomial.aspxloi binomialehttp://stattrek.com/online-calculator/normal.aspxloi normale















