Variables aléatoires distribuées conjointement | Ses propriétés importantes et 5 exemples

Contenu

Variables aléatoires distribuées conjointement

     Les variables aléatoires distribuées conjointement sont la variable aléatoire plus d'une avec une probabilité distribuée conjointement pour ces variables aléatoires, en d'autres termes dans les expériences où le résultat différent avec leur probabilité commune est connu sous le nom de variable aléatoire distribuée conjointement ou distribution conjointe, ce type de situation se produit fréquemment en traitant les problèmes des chances.

Fonction de distribution conjointe | Fonction de distribution de probabilité cumulative conjointe | fonction de masse de probabilité conjointe | fonction de densité de probabilité conjointe

    Pour les variables aléatoires X et Y, la fonction de distribution ou la fonction de distribution cumulative conjointe est

F (a, b) = P \ gauche \ {X \ leq a, Y \ leq b \ droit \} \ \, \ \ - \ infty <a, b <\ infty

où la nature de la probabilité conjointe dépend de la nature des variables aléatoires X et Y soit discrètes soit continues, et les fonctions de distribution individuelles pour X et Y peuvent être obtenues en utilisant cette fonction de distribution cumulative conjointe comme

F_ {X} (a) = P \ left \ {{X \ leq a} \ right \} \\ = P \ left \ {X \ leq a, Y <\ infty \ right \} \\ = P \ left (\ lim_ {b \ to \ infty} X \ leq a, Y <b \ right) \\ = \ lim_ {b \ to \ infty} P \ left \ {X \ leq a, Y \ leq b \ right \ } \\ = \ lim_ {b \ to \ infty} F (a, b) \\ \ equiv F (a, \ infty)

de même pour Y comme

F_ {Y} (b) = P \ left \ {Y \ leq b \ right \} \\ = \ lim_ {a \ to \ infty} F (a, b) \\ \ equiv F (\ infty, b)

ces fonctions de distribution individuelles de X et Y sont appelées fonctions de distribution marginale lorsque la distribution conjointe est à l'étude. Ces distributions sont très utiles pour obtenir les probabilités telles que

P \ left {X> a, Y> b \ right} = 1-P (\ left {X> a, Y> b \ right} ^ {c}) \\ = 1-P (\ left {X> a \ right} ^ {c} \ cup \ left {Y> b \ right} ^ {c}) \\ = 1- P (\ left {X \ leq a \ right} \ cup \ left {Y \ leq b \ droite}) \\ = 1- \ gauche [P \ gauche {X \ leq a \ droite} + P \ gauche {Y \ leq b \ droite} -P \ gauche {X \ leq a, Y \ leq b \ droite } \ droite] \\ = 1- F_ {X} (a) -F_ {Y} (b) + F (a, b)

et

P \ left {a_ {1} \ leq X \ leq a_ {2}, b_ {1} \ leq Y \ leq b_ {2} \ right} \\ = F (a_ {2}, b_ {2}) + F (a_ {1}, b_ {1}) - F (a_ {1}, b_ {2}) - F (a_ {2}, b_ {1})

en outre, la fonction de masse de probabilité conjointe pour les variables aléatoires X et Y est définie comme

p (x, y) = P \ gauche {X = x, Y = y \ droite}

les fonctions de masse ou de densité de probabilité individuelles pour X et Y peuvent être obtenues à l'aide d'une fonction de masse ou de densité de probabilité conjointe comme en termes de variables aléatoires discrètes comme

p_ {X} (x) = P \ gauche {X = x \ droite} \\ = \ sum_ {y: p (x, y)> 0} ^ {} p (x, y) \\ p_ {Y} (y) = \ somme_ {y: p (x, y)> 0} ^ {} p (x, y)

et en termes de variable aléatoire continue, la fonction de densité de probabilité conjointe sera

P \ left {(X, Y) \ in C \ right} = \ int _ {(x, y) \ in C} ^ {} \ int f (x, y) dxdy

où C est n'importe quel plan bidimensionnel, et la fonction de distribution conjointe pour une variable aléatoire continue sera

F (a, b) = P \ left {X \ in (- \ infty, a], Y \ in (- \ infty, b] \ right} \\ = \ int _ {- \ infty} ^ {b} \ int _ {- \ infty} ^ {a} f (x, y) dxdy

la fonction de densité de probabilité à partir de cette fonction de distribution peut être obtenue en différenciant

f (a, b) = \ frac {\ partial ^ 2} {\ partial a \ partial b} F (a, b)

et la probabilité marginale de la fonction de densité de probabilité conjointe

P \ left {X \ in A \ right} = P \ left {X \ in A, Y \ in (- \ infty, \ infty) \ right} \ = \ int_ {A} ^ {} \ int _ {- \ infty} ^ {\ infty} f (x, y) dydx \ = \ int_ {A} ^ {} f_ {X} (x) dx

as

f_ {X} (x) = \ int _ {- \ infty} ^ {\ infty} f (x, y) dy

et

f_ {Y} (y) = \ int _ {- \ infty} ^ {\ infty} f (x, y) dx

par rapport aux variables aléatoires X et Y respectivement

Exemples de distribution conjointe

  1. Les probabilités conjointes pour les variables aléatoires X et Y représentant le nombre de livres de mathématiques et de statistiques d'un ensemble de livres qui contient 3 livres de mathématiques, 4 statistiques et 5 livres de physique si 3 livres pris au hasard

p (0,0) = \ binom {5} {3} / \ binom {12} {3} = \ frac {10} {220} \\ p (0,1) = \ binom {4} {1} \ binom {5} {2} / \ binom {12} {3} = \ frac {40} {220} \\ p (0,2) = \ binom {4} {2} \ binom {5} {1 } / \ binom {12} {3} = \ frac {30} {220} \\ p (0,3) = \ binom {4} {3} / \ binom {12} {3} = \ frac {4 } {220} \\ p (1,0) = \ binom {3} {1} \ binom {5} {2} / \ binom {12} {3} = \ frac {30} {220} \\ p (1,1) = \ binom {3} {1} \ binom {4} {1} \ binom {5} {1} / \ binom {12} {3} = \ frac {60} {220} \\ p (1,2) = \ binom {3} {1} \ binom {4} {2} / \ binom {12} {3} = \ frac {18} {220} \\ p (2,0) = \ binom {3} {2} \ binom {5} {1} / \ binom {12} {3} = \ frac {15} {220} \\ p (2,1) = \ binom {3} {2 } \ binom {4} {1} / \ binom {12} {3} = \ frac {12} {220} \\ p (3,0) = \ binom {3} {3} / \ binom {12} {3} = \ frac {1} {220} \

  • Trouvez la fonction de masse de probabilité conjointe pour l'échantillon de familles ayant 15% sans enfant, 20% 1 enfant, 35% 2 enfant et 30% 3 enfant si la famille que nous choisissons au hasard dans cet échantillon pour que l'enfant soit garçon ou fille?

La probabilité conjointe que nous trouverons en utilisant la définition comme

Variables aléatoires distribuées conjointement
Variables aléatoires distribuées conjointement: exemple

et cela nous pouvons illustrer sous forme tabulaire comme suit

Variables aléatoires distribuées conjointement
Variables aléatoires distribuées conjointement: exemple de distribution conjointe
  • Calculez les probabilités

(a) P \ left {X> 1, Y> 1 \ right}, \ \ (b) P \ left {X <Y \ right}, et \ \ (c) P \ left {X <a \ right}

si pour les variables aléatoires X et Y la fonction de densité de probabilité conjointe est donnée par

f (x, y) = \ begin {cases} 2e ^ {- x} y ^ {- 2y} \ \ 0 <x <\ infty, \ \ 0 <y <\ infty \\ 0 & \ text {sinon} \ end {cas}

à l'aide de la définition de la probabilité conjointe pour une variable aléatoire continue

= \ int _ {- \ infty} ^ {b} \ int _ {- \ infty} ^ {a} f (x, y) dxdy

et la fonction de densité de joint donnée, la première probabilité pour la plage donnée sera

P \ left {X> 1, Y <1 \ right} = \ int_ {0} ^ {1} \ int_ {1} ^ {\ infty} 2e ^ {- x} e ^ {- 2y} dxdy

= \ int_ {0} ^ {1} 2e ^ {- 2y} \ left (-e ^ {- x} \ lvert_ {1} ^ {\ infty} \ right) dy

=e^{-1}\int_{0}^{1}2e^{-2y}dy

= e ^ {- 1} (1-e ^ {- 2})

de la même manière la probabilité

P \ left {X <Y \ right} = \ int _ {(x, y):} ^ {} \ int_ {x <y} ^ {} 2e ^ {- 2x} e ^ {- 2y} dxdy

=\int_{0}^{\infty}\int_{0}^{y}2e^{-2x}e^{-2y}dxdy

= \ int_ {0} ^ {\ infty} 2e ^ {- 2y} (1-e ^ {- y}) dy

=\int_{0}^{\infty}2e^{-2y}dy - \int_{0}^{\infty}2e^{-3y}dy =1-\frac{2}{3}=\frac{1}{3}

et enfin

P \ left \ {X <a \ right \} = \ int_ {0} ^ {a} \ int_ {0} ^ {\ infty} 2e ^ {- 2y} e ^ {- x} dydx

= \ int_ {0} ^ {a} e ^ {- x} dx

= 1-e ^ {- a}

  • Trouvez la fonction de densité conjointe pour le quotient X / Y des variables aléatoires X et Y si leur fonction de densité de probabilité conjointe est

f (x, y) = \ begin {cases} e ^ {- (x + y)} \ \ 0 <x <\ infty, \ \ 0 <y <\ infty \\ \ 0 & \ text {sinon} \ end {cases}

Pour trouver la fonction de densité de probabilité pour la fonction X / Y, nous trouvons d'abord la fonction de distribution conjointe puis nous différencierons le résultat obtenu,

donc par la définition de la fonction de distribution conjointe et de la fonction de densité de probabilité donnée, nous avons

F_ {X} / _ {Y} (a) = P \ left {\ frac {X} {Y} \ leq a \ right}

= \ int _ {\ frac {X} {Y} \ leq a} ^ {} \ int e ^ {- (x + y)} dxdy

= \ int_ {0} ^ {\ infty} \ int_ {0} ^ {ay} e ^ {- (x + y)} dxdy

= \ left {\ int_ {0} ^ {\ infty} -e ^ {- y} dxdy + \ frac {e ^ {- (a + 1) y}} {a + 1} \ right} \ lvert_ {0 } ^ {\ infty}

= 1- \ frac {1} {a + 1}

ainsi en différenciant cette fonction de distribution par rapport à a, nous obtiendrons la fonction de densité comme

f _ {\ frac {X} {Y}} (a) = \ frac {1} {(a + 1) ^ {2}}

où a est compris entre zéro et l'infini.

Variables aléatoires indépendantes et distribution conjointe

     Dans le distribution conjointe la probabilité pour deux variables aléatoires X et Y est dite indépendante si

P \ left {X \ in A, Y \ in B \ right} = P \ left {X \ in A \ right} P \ left {Y \ in B \ right}

où A et B sont les ensembles réels. Comme déjà en termes d'événements, nous savons que les variables aléatoires indépendantes sont les variables aléatoires dont les événements sont indépendants.

Ainsi, pour toutes les valeurs de a et b

P \ left {X \ leq a, Y \ leq b \ right} = P \ left {X \ leq a \ right} P \ left {Y \ leq b \ right}

et la distribution conjointe ou la fonction de distribution cumulative pour les variables aléatoires indépendantes X et Y sera

F (a, b) = F_ {X} (a) F_ {Y} (b) \ \ pour \ \ tous \ \ a, b

si nous considérons les variables aléatoires discrètes X et Y alors

p (x, y) = p_ {X} (x) p_ {Y} (y) \ \ pour \ \ tous \ \ x, y

depuis

P \ left {X \ in A, Y \ in B \ right} = \ sum_ {y \ in B} ^ {} \ sum_ {x \ in A} ^ {} p (x, y)

= \ sum_ {y \ in B} ^ {} \ sum_ {x \ in A} ^ {} p_ {X} (x) p_ {Y} (y)

= \ sum_ {y \ in B} p_ {Y} (y) \ sum_ {x \ in A} p_ {X} (x)

= P \ left {Y \ in B \ right} P \ left {X \ in A \ right}

de même pour la variable aléatoire continue

f (x, y) = f_ {X} (x) f_ {Y} (y) \ \ pour \ \ tous \ \ x, y

Exemple de distribution conjointe indépendante

  1. Si, pour un jour spécifique dans un hôpital, les patients entrés sont distribués poisson avec le paramètre λ et la probabilité de patient de sexe masculin comme p et la probabilité de patient de sexe féminin comme (1-p), alors montrez que le nombre de patients de sexe masculin et de patient de sexe féminin entrés à l'hôpital sont des variables aléatoires de poisson indépendantes avec les paramètres λp et λ (1-p)?

considérer le nombre de patients masculins et féminins par les variables aléatoires X et Y puis

P \ gauche {X = i, Y = j \ droite} = P \ gauche {X = i, Y = j | X + Y = i + j \ droite} P \ gauche {X + Y = i + j \ droite } + P \ gauche {X = i, Y = j | X + Y \ neq i + j \ droite} P \ gauche {X + Y \ neq i + j \ droite}

P \ gauche {X = i, Y = j \ droite} = P \ gauche {X = i, Y = j | X + Y = i + j \ droite} P \ gauche {X + Y = i + j \ droite }

comme X + Y sont le nombre total de patients entrés dans l'hôpital qui est distribué selon le poisson

P \ left {X + Y = i + j \ right} = e ^ {- \ lambda} \ frac {\ lambda ^ {i + j}} {(i + j)!}

comme la probabilité du patient masculin est p et celle du patient féminin est (1-p), donc exactement à partir du nombre total de correctifs, l'homme ou la femme montre la probabilité binomiale comme

P \ gauche {X = i, Y = j | X + Y = i + j \ droite} = \ binom {i + j} {i} p ^ {i} (1-p) ^ {j}

en utilisant ces deux valeurs, nous obtiendrons la probabilité conjointe ci-dessus comme

P \ left {X = i, Y = j \ right} = \ binom {i + j} {i} p ^ {i} (1-p) ^ {j} e ^ {- \ lambda} \ frac {\ lambda ^ {i + j}} {(i + j)!}

= e ^ {- \ lambda} \ frac {\ lambda p ^ i} {i! j!} \ gauche [\ lambda (1-p) \ droite] ^ {j}

= e ^ {- \ lambda p} \ frac {(\ lambda p) ^ i} {i!} e ^ {- \ lambda (1-p)} \ frac {\ left [\ lambda (1-p) \ droite] ^ {j}} {j!}

ainsi la probabilité des patients masculins et féminins sera

P \ left {X = i \ right} = e ^ {- \ lambda p} \ frac {(\ lambda p) ^ i} {i!} \ Sum_ {j} e ^ {- \ lambda (1-p) } \ frac {\ gauche [\ lambda (1-p) \ droite] ^ {j}} {j!} = e ^ {- \ lambda p} \ frac {(\ lambda p) ^ i} {i!}

et

P \ left {Y = j \ right} = e ^ {- \ lambda (1-p)} \ frac {\ left [\ lambda (1-p) \ right] ^ {j}} {j!}

ce qui montre que les deux sont des variables aléatoires de poisson avec les paramètres λp et λ (1-p).

2. trouver la probabilité qu'une personne doive attendre plus de dix minutes à la réunion pour un client comme si chaque client et cette personne arrivaient entre 12 h et 1 h après distribution uniforme.

considérez les variables aléatoires X et Y pour désigner le temps pour cette personne et ce client entre 12 et 1, de sorte que la probabilité conjointement pour X et Y sera

2P \ gauche {X + 10 <Y \ droite} = 2 \ int_ {X + 10 <Y} \ int f (x, y) dxdy

= 2 \ int_ {X + 10 <Y} \ int f_ {X} (x) f_ {Y} (y) dxdy

= 2 \ int_ {10} ^ {60} \ int_ {0} ^ {y-10} \ left (\ frac {1} {60} \ right) ^ {2} dxdy

=\frac{2}{(60)^{2}}\int_{10}^{60} (y-10)dy

= \ frac {25} {36}

calculer

P \ gauche {X \ geq YZ \ droite}

où X, Y et Z sont des variables aléatoires uniformes sur l'intervalle (0,1).

ici la probabilité sera

P \ left {X \ geq YZ \ right} = \ int \ int_ {x \ geq yz} \ int f_ {X, Y, Z} (x, y, z) dxdydz

pour la distribution uniforme la fonction de densité

f_ {X, Y, Z} (x, y, z) = f_ {X} (x) f_ {Y} (y) f_ {Z} (z) = 1, \ \ 0 \ leq x \ leq 1, \ \ 0 \ leq y \ leq 1, \ \ 0 \ leq z \ leq 1

pour la plage donnée donc

=\int_{0}^{1}\int_{0}^{1}\int_{yz}^{1} dxdydz

=\int_{0}^{1}\int_{0}^{1} (1-yz) dydz

= \ int_ {0} ^ {1} \ left (1- \ frac {z} {2} \ right) dydz

= \ frac {3} {4}

SOMME DES VARIABLES ALÉATOIRES INDÉPENDANTES PAR DISTRIBUTION CONJOINTE

  La somme des variables indépendantes X et Y avec les fonctions de densité de probabilité en tant que variables aléatoires continues, la fonction de distribution cumulative sera

F_ {X + Y} (a) = P \ left \ {X + Y \ leq a \ left. \ droite \} \ droite.

= \ int_ {x + y \ leq a} \ int f_ {X} (x) f_ {Y} (y) dxdy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) f_ {Y} (y) dxdy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) dx f_ {Y} (y) dy

= \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

en différenciant cette fonction de distribution cumulative pour la fonction de densité de probabilité de ces sommes indépendantes sont

f_ {X + Y} (a) = \ frac {\ mathrm {d}} {\ mathrm {d} a} \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

f_ {X + Y} (a) = \ int _ {- \ infty} ^ {\ infty} \ frac {\ mathrm {d}} {\ mathrm {d} a} F_ {X} (ay) f_ {Y} (y) dy

= \ int _ {- \ infty} ^ {\ infty} f_ {X} (ay) f_ {Y} (y) dy

en suivant ces deux résultats, nous verrons quelques variables aléatoires continues et leur somme comme des variables indépendantes

somme de variables aléatoires uniformes indépendantes

   pour les variables aléatoires X et Y uniformément réparties sur l'intervalle (0,1), la fonction de densité de probabilité pour ces deux variables indépendantes est

f_ {X} (a) = f_ {Y} (a) = \ begin {cases} 1 & \ 0 <a <1 \\ \ \ 0 & \ text {sinon} \ end {cases}

donc pour la somme X + Y nous avons

f_ {X + Y} (a) = \ int_ {0} ^ {1} f_ {X} (ay) dy

pour toute valeur a se situe entre zéro et un

f_ {X + Y} (a) = \ int_ {0} ^ {a} dy = a

si nous restreignons un entre un et deux, ce sera

f_ {X + Y} (a) = \ int_ {a-1} ^ {a} dy = 2-a

cela donne la fonction de densité de forme triangulaire

f_ {X + Y} (a) = \ begin {cases} \ a & 0 \ leq a \ leq 1 \\ \ 2-a & \ 1 <a <2 \\ \ 0 & \ text {sinon} \ end {cas}

si nous généralisons pour les n variables aléatoires uniformes indépendantes 1 à n alors leur fonction de distribution

F_ {n} (x) = P \ gauche (X_ {1} + ...... + X_ {n} \ leq x \ droite)

par induction mathématique sera

F_ {n} (x) = \ frac {x ^ {n}} {n!}, 0 \ leq x \ leq 1

somme des variables aléatoires gamma indépendantes

    Si nous avons deux variables aléatoires gamma indépendantes avec leur fonction de densité habituelle

f (y) = \ frac {\ lambda e ^ {- \ lambda y} (\ lambda y) ^ {t-1}} {\ Gamma (t)} \ \, 0 <y <\ infty

puis en suivant la densité pour la somme des variables aléatoires gamma indépendantes

f_ {X + Y} (a) = \ frac {1} {\ Gamma (s) \ Gamma (t)} \ int_ {0} ^ {a} \ lambda e ^ {- \ lambda (ay)} \ left [\ lambda (ay) \ right] ^ {s-1} \ lambda e ^ {- \ lambda y} (\ lambda y) ^ {t-1} dy

= K e ^ {- \ lambda a} \ int_ {0} ^ {a} \ left [(ay) \ right] ^ {s-1} (y) ^ {t-1} dy

= K e ^ {- \ lambda a} a ^ {s + t-1} \ int_ {0} ^ {1} (1-x) ^ {s-1} x ^ {t-1} dx \ \ by \ \ letting \ \ x = \ frac {y} {a}

= C e ^ {- \ lambda a} a ^ {s + t-1}

f_ {X + Y} (a) = \ frac {\ lambda e ^ {- \ lambda a} (\ lambda a) ^ {s + t-1}} {\ Gamma (s + t)}

ceci montre la fonction de densité pour la somme des variables aléatoires gamma qui sont indépendantes

somme de variables aléatoires exponentielles indépendantes

    De la même manière que la variable aléatoire gamma, la somme des variables aléatoires exponentielles indépendantes, nous pouvons obtenir une fonction de densité et une fonction de distribution en attribuant simplement spécifiquement des valeurs de variables aléatoires gamma.

Somme des variables aléatoires normales indépendantes | somme de la distribution normale indépendante

                Si nous avons n nombre de variables aléatoires normales indépendantes Xi , i = 1,2,3,4… .n avec des moyens respectifs μi et variances σ2i alors leur somme est également une variable aléatoire normale avec la moyenne comme Σμi  et variances Σσ2i

    Nous montrons d'abord la somme indépendante normalement distribuée pour deux variables aléatoires normales X avec les paramètres 0 et σ2 et Y avec les paramètres 0 et 1, trouvons la fonction de densité de probabilité pour la somme X + Y avec

c = \ frac {1} {2 \ sigma ^ {2}} + \ frac {1} {2} = \ frac {1+ \ sigma ^ {2}} {2 \ sigma ^ {2}}

dans la fonction de densité de distribution conjointe

f_ {X + Y} (a) = \ int _ {- \ infty} ^ {\ infty} f_ {X} (ay) f_ {Y} (y) dy

à l'aide de la définition de la fonction de densité de la distribution normale

f_ {X} (ay) f_ {Y} (y) = \ frac {1} {\ sqrt {2 \ pi} \ sigma} exp \ left {- \ frac {(ay) ^ {2}} {2 \ sigma ^ {2}} \ right} \ frac {1} {\ sqrt {2 \ pi}} exp \ left {- \ frac {y ^ {2}} {2} \ right}

= \ frac {1} {2 \ pi \ sigma} exp \ left {- \ frac {a ^ {2}} {2 \ sigma ^ {2}} \ right} exp \ left {-c \ left (y ^ {2} -2y \ frac {a} {1+ \ sigma ^ {2}} \ right) \ right}

ainsi la fonction de densité sera

f_ {X + Y} (a) = \ frac {1} {2 \ pi \ sigma} exp \ left {- \ frac {a ^ {2}} {2 \ sigma ^ {2}} \ right} exp \ left {\ frac {a ^ {2}} {2 \ sigma ^ {2} (1+ \ sigma ^ {2})} \ right} X \ int _ {- \ infty} ^ {\ infty} exp \ left { -c \ left (y- \ frac {a} {1+ \ sigma ^ {2}} \ right) ^ {2} \ right} dy

= \ frac {1} {2 \ pi \ sigma} exp \ left {- \ frac {a ^ {2}} {2 (1+ \ sigma ^ {2})} \ right} \ int _ {- \ infty} ^ {\ infty} exp \ left {-cx ^ {2} \ right} dx

= C exp \ left {- \ frac {a ^ {2}} {2 (1+ \ sigma ^ {2})} \ right}

qui n'est rien d'autre que la fonction de densité d'une distribution normale de moyenne 0 et de variance (1 + σ2) suivant le même argument, nous pouvons dire

X_ {1} + X_ {2} = \ sigma {2} \ gauche (\ frac {X {1} - \ mu {1}} {\ sigma {2}} + \ frac {X_ {2} - \ mu {2}} {\ sigma {2}} \ droite) + \ mu {1} + \ mu {2}

avec la moyenne et les variances habituelles. Si nous prenons l'expansion et observons que la somme est normalement distribuée avec la moyenne comme somme des moyennes respectives et la variance comme somme des variances respectives,

ainsi de la même manière la nième somme sera la variable aléatoire normalement distribuée avec la moyenne comme Σμi  et variances Σσ2i

Sommes de variables aléatoires de Poisson indépendantes

Si nous avons deux variables aléatoires de Poisson indépendantes X et Y avec des paramètres λ1 et λ2 alors leur somme X + Y est aussi variable aléatoire de Poisson ou distribuée de Poisson

puisque X et Y sont distribués de Poisson et nous pouvons écrire leur somme comme l'union d'événements disjoints

P \ left {X + Y = n \ right} = \ sum_ {k = 0} ^ {n} P \ left {X = k, Y = nk \ right}

= \ sum_ {k = 0} ^ {n} P \ gauche {X = k \ droite}, P \ gauche {Y = nk \ droite}

= \ sum_ {k = 0} ^ {n} e ^ {- \ lambda {1}} \ frac {\ lambda {1} ^ {k}} {k!} e ^ {- \ lambda {2}} \ frac {\ lambda {2} ^ {nk}} {(nk)!}

en utilisant la probabilité de variables aléatoires indépendantes

= e ^ {- (\ lambda {1} + \ lambda {2})} \ sum_ {k = 0} ^ {n} \ frac {\ lambda {1} ^ {k} \ lambda {2} ^ {nk }} {k! (nk)!}

= \ frac {e ^ {- (\ lambda {1} + \ lambda {2})}} {n!} \ sum_ {k = 0} ^ {n} \ frac {n!} {k! (nk) !} \ lambda {1} ^ {k} \ lambda {2} ^ {nk}

= \ frac {e ^ {- (\ lambda {1} + \ lambda {2})}} {n!} (\ lambda {1} + \ lambda {2}) ^ {n}

on obtient donc la somme X + Y est également distribuée de Poisson avec la moyenne λ1 + λ2

Sommes de variables aléatoires binomiales indépendantes

                Si nous avons deux variables aléatoires binomiales indépendantes X et Y avec des paramètres (n, p) et (m, p) alors leur somme X + Y est également une variable aléatoire binomiale ou binomiale distribuée avec le paramètre (n + m, p)

utilisons la probabilité de la somme avec la définition du binôme comme

P \ left {X + Y = k \ right} = \ sum_ {i = 0} ^ {n} P \ left {X = i, Y = ki \ right}

= \ sum_ {i = 0} ^ {n} P \ left {X = i \ right} P \ left {Y = ki \ right}

= \ sum_ {i = 0} ^ {n} \ binom {n} {i} p ^ {i} q ^ {ni} \ binom {m} {ki} p ^ {ki} q ^ {m-k + je}

où \ \ q = 1-p \ \ et \ \ where \ \ \ binom {r} {j} = 0 \ \ quand \ \ j <0

\ binom {m + n} {k} = \ sum_ {i = 0} ^ {n} \ binom {n} {i} \ binom {m} {ki}

qui donne

P \ left {X + Y = k \ right} = p ^ {k} q ^ {n + mk} \ sum_ {i = 0} ^ {n} \ binom {n} {i} \ binom {m} { ki}

donc la somme X + Y est également distribuée de manière binomiale avec le paramètre (n + m, p).

Conclusion:

Le concept de variables aléatoires distribuées conjointement qui donne la distribution comparativement pour plus d'une variable dans la situation est discuté en outre le concept de base de variable aléatoire indépendante à l'aide de la distribution conjointe et de la somme des variables indépendantes avec un exemple de distribution leurs paramètres, si vous avez besoin de lecture supplémentaire, parcourez les livres mentionnés. Pour plus d'articles sur les mathématiques, veuillez cliquez ici.

https://en.wikipedia.org

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda