Distribution conditionnelle | Ses 5 propriétés importantes

Distribution conditionnelle

   Il est très intéressant de discuter du cas conditionnel de la distribution lorsque deux variables aléatoires suivent la distribution satisfaisant l'une étant donnée l'autre, on voit d'abord brièvement la distribution conditionnelle à la fois dans le cas des variables aléatoires, discrètes et continues puis après avoir étudié quelques prérequis nous nous concentrons sur le attentes conditionnelles.

Distribution conditionnelle discrète

     À l'aide de la fonction de masse de probabilité conjointe dans la distribution conjointe, nous définissons la distribution conditionnelle pour les variables aléatoires discrètes X et Y en utilisant la probabilité conditionnelle pour X étant donné Y comme distribution avec la fonction de masse de probabilité

p_ {X | Y} (x | y) = P \ gauche {X = x | Y = y \ droite}

= \ frac {P \ left {X = x, Y = y \ right}} {P \ left {Y = y \ right}}

= \ frac {p (x, y)} {p_ {Y} (y)}

à condition que la probabilité du dénominateur soit supérieure à zéro, en similaire, nous pouvons l'écrire comme

F_ {X | Y} (x | y) = P \ left {X \ leq x | Y \ leq y \ right}

= \ somme_ {a \ leq x} p_ {X | Y} (a | y)

dans la probabilité conjointe, si X et Y sont des variables aléatoires indépendantes, cela se transformera en

p_ {X | Y} (x | y) = P \ gauche {X = x | Y = y \ droite}

= \ frac {P \ left {X = x, Y = y \ right}} {P \ left {Y = y \ right}}

= P \ gauche {X = x \ droite}

donc la distribution conditionnelle discrète ou la distribution conditionnelle pour les variables aléatoires discrètes X étant donné Y est la variable aléatoire avec la fonction de masse de probabilité ci-dessus de la même manière pour Y étant donné X que nous pouvons définir.

Exemple de distribution conditionnelle discrète

  1. Trouvez la fonction de masse de probabilité de la variable aléatoire X donnée Y = 1, si la fonction de masse de probabilité conjointe pour les variables aléatoires X et Y a des valeurs comme

p(0,0)=0.4 , p(0,1)=0.2, p(1,0)= 0.1, p(1,1)=0.3

Maintenant tout d'abord pour la valeur Y = 1 nous avons

p_{Y}(1)=\sum_{x}p(x,1)=p(0,1)+p(1,1)=0.5

donc en utilisant la définition de la fonction de masse de probabilité

p_ {X | Y} (x | y) = P \ gauche {X = x | Y = y \ droite}

= \ frac {P \ left {X = x, Y = y \ right}} {P \ left {Y = y \ right}}

= \ frac {p (x, y)} {p_ {Y} (y)}

nous avons

p_{X|Y}(0|1)=\frac{p(0,1)}{p_{Y}(1)}=\frac{2}{5}

et

p_{X|Y}(1|1)=\frac{p(1,1)}{p_{Y}(1)}=\frac{3}{5}

  • obtenir la distribution conditionnelle de X étant donné X + Y = n, où X et Y sont des distributions de Poisson avec les paramètres λ1 et λ2 et X et Y sont des variables aléatoires indépendantes

Puisque les variables aléatoires X et Y sont indépendantes, la distribution conditionnelle aura donc la fonction de masse de probabilité comme

P \ left {X = k | X + Y = n \ right} = \ frac {P \ left {X = k, X + Y = n \ right}} {P \ left {X + Y = n \ right} }

= \ frac {P \ left {X = k, X = n -k \ right}} {P \ left {X + Y = n \ right}}

= \ frac {P \ left {X = k \ right} P \ left {Y = nk \ right}} {P \ left {X + Y = n \ right}}

puisque la somme de la variable aléatoire de Poisson est à nouveau poisson, donc

P \ left {X = k | X + Y = n \ right} = \ frac {e ^ {- \ lambda {1}} \ lambda {1} ^ {k}} {k!} \ Frac {e ^ { - \ lambda_ {2} ^ {}} \ lambda {2} ^ {nk}} {(nk)!} \ left [\ frac {e ^ {- (\ lambda {1} + \ lambda {2})} (\ lambda {1} + \ lambda _ {2}) ^ {n}} {n!} \ right] ^ {- 1}

= \ frac {n!} {(nk)! k!} \ frac {\ lambda {1} ^ {k} \ lambda {2} ^ {nk}} {(\ lambda {1} + \ lambda {2} ) ^ {n}}

= \ binom {n} {k} \ left (\ frac {\ lambda {1}} {\ lambda {1} + \ lambda {2}} \ right) ^ {k} \ left (\ frac {\ lambda { 2}} {\ lambda {1} + \ lambda {2}} \ right) ^ {nk}

ainsi la distribution conditionnelle avec la fonction de masse de probabilité ci-dessus sera une distribution conditionnelle pour de telles distributions de Poisson. Le cas ci-dessus peut être généralisé pour plus de deux variables aléatoires.

Distribution conditionnelle continue

   La distribution conditionnelle continue de la variable aléatoire X étant donné y déjà définie est la distribution continue avec la fonction de densité de probabilité

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

la densité du dénominateur est supérieure à zéro, ce qui pour la fonction de densité continue est

f_ {X | Y} (x | y) dx = \ frac {f (x, y) dxdy} {f_ {Y} (y) dy}

\ approx \ frac {P \ left {x \ leq X \ leq x + dx, y \ leq Y \ leq y + dy \ right}} {P \ left {y \ leq Y \ leq y + dy \ right}}

= P \ gauche {x \ leq X \ leq x + dx | y \ leq Y \ leq y + dy \ right}

ainsi la probabilité d'une telle fonction de densité conditionnelle est

P \ left {X \ in A | Y = y \ right} = \ int_ {A} f_ {X | Y} (x | y) dx

De la même manière qu'en discret si X et Y sont indépendants en continu alors aussi

f_ {X | Y} (x | y) dx = \ frac {f (x, y)} {f_ {Y} (y)} = \ frac {f_ {X} (x) f_ {Y} (y) } {f_ {Y} (y)} = f_ {X} (x)

et donc

\ frac {P \ left {x <X <x + dx | N = n \ right}} {dx} = \ frac {P \ left {N = n | x <X <x + dx \ right}} {P \ left {N = n \ right}} \ frac {P \ left {x <X <x + dx \ right}} {dx}

\ lim_ {dx \ to 0} \ frac {P \ left {x <X <x + dx | N = n \ right}} {dx} = \ frac {P \ left {N = n | X = x \ right }} {P \ gauche {N = n \ droite}} f (x)

afin que nous puissions l'écrire comme

f_ {X | N} (x | n) = \ frac {P \ gauche {N = n | X = x \ droite}} {P \ gauche {N = n \ droite}} f (x)

Exemple de distribution conditionnelle continue

  1. Calculer la fonction de densité conditionnelle de la variable aléatoire X donnée Y si la fonction de densité de probabilité conjointe avec l'intervalle ouvert (0,1) est donnée par

f (x, y) = \ begin {cases} \ frac {12} {5} x (2-xy) \ \ 0 <x <1, \ \ 0 <y <1 \\ \ \ 0 \ \ \ \ sinon \ end {cases}

Si pour la variable aléatoire X donnée Y à l'intérieur de (0,1), alors en utilisant la fonction de densité ci-dessus, nous avons

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

= \ frac {f (x, y)} {\ int _ {- \ infty} ^ {\ infty} f (x, y) dx}

= \ frac {x (2-xy)} {\ int_ {0} ^ {1} x (2-xy) dx}

= \ frac {x (2-xy)} {\ frac {2} {3} - \ frac {y} {2}}

= \ frac {6x (2-xy)} {4-3y}

  • Calculer la probabilité conditionnelle

P \ gauche {X> 1 | Y = y \ droite}

si la fonction de densité de probabilité conjointe est donnée par

f(x,y)=\begin{cas} \frac{e^{-\frac{x}{y}}e^{-y}}{y} \ \ 0< x< \infty , \ \ 0 < y< \infty \\ \ \ 0 \ \ \ \ sinon \end{cases}

Pour trouver la probabilité conditionnelle, nous avons d'abord besoin de la fonction de densité conditionnelle, donc par définition, ce serait

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

= \ frac {e ^ {- x / y} e ^ {- y} / y} {e ^ {- y} \ int_ {0} ^ {\ infty} (1 / y) e ^ {- x / y } dx}

= \ frac {1} {y} e ^ {- x / y}

en utilisant maintenant cette fonction de densité dans la probabilité probabilite conditionnelle is

P \ left {X> 1 | Y = y \ right} = \ int_ {1} ^ {\ infty} \ frac {1} {y} e ^ {- x / y} dx

= e ^ {- x / y} \ lvert_ {1} ^ {\ infty}

= e ^ {- 1 / y}

Distribution conditionnelle de la distribution normale bivariée

  Nous savons que la distribution normale bivariée des variables aléatoires normales X et Y avec les moyennes et les variances respectives en tant que paramètres a la fonction de densité de probabilité conjointe

Distribution conditionnelle
Distribution conditionnelle de la distribution normale bivariée

donc trouver la distribution conditionnelle pour une telle distribution normale bivariée pour X donné Y est défini en suivant la fonction de densité conditionnelle de la variable aléatoire continue et la fonction de densité conjointe ci-dessus, nous avons

Distribution conditionnelle
Distribution conditionnelle de la distribution normale bivariée

En observant cela, nous pouvons dire que cela est normalement distribué avec la moyenne

\ gauche (\ mu {x} + \ rho \ frac {\ sigma {x}} {\ sigma {y}} (y- \ mu {y}) \ droite)

et variance

\ sigma _ {x} ^ {2} (1- \ rho ^ {2})

de la même manière la fonction de densité conditionnelle pour Y étant donné X déjà défini va simplement intervertir les positions des paramètres de X avec Y,

La fonction de densité marginale pour X que nous pouvons obtenir à partir de la fonction de densité conditionnelle ci-dessus en utilisant la valeur de la constante

Distribution conditionnelle
Distribution conditionnelle de la distribution normale bivariée

substituons dans l'intégrale

w = \ frac {y- \ mu {y}} {\ sigma {y}}

la fonction de densité sera maintenant

puisque la valeur totale de

par la définition de la probabilité donc la fonction de densité sera maintenant

qui n'est rien d'autre que la fonction de densité de la variable aléatoire X avec la moyenne et la variance habituelles comme paramètres.

Distribution de probabilité conjointe de la fonction de variables aléatoires

  Jusqu'à présent, nous connaissons la distribution de probabilité conjointe de deux variables aléatoires, maintenant si nous avons des fonctions de ces variables aléatoires, quelle serait la distribution de probabilité conjointe de ces fonctions, comment calculer la fonction de densité et de distribution parce que nous avons des situations réelles où nous avoir des fonctions des variables aléatoires,

Si O1 Andy2 sont les fonctions des variables aléatoires X1 et X2 respectivement qui sont conjointement continues, alors la fonction de densité continue conjointe de ces deux fonctions sera

f_{Y_{1}Y_{2}}(y_{1}y_{2})=fX_{1}X_{2}(x_{1},x_{2})|J(x_{1},x_{2})|^{-1}

Jacobien

J (x_ {1}, x_ {2}) = \ begin {vmatrix} \ frac {\ partial g_1} {\ partial x_1} & \ frac {\ partial g_1} {\ partial x_2} \ \ \\ \ frac { \ partial g_2} {\ partial x_1} & \ frac {\ partial g_2} {\ partial x_2} \ end {vmatrix} \ equiv \ frac {\ partial g_1} {\ partial x_1} \ frac {\ partial g_2} {\ partial x_2} - \ frac {\ partial g_1} {\ partial x_2} \ frac {\ partial g_2} {\ partial x_1} \ neq 0

Andy1 =g1 (X1X2) Andy2 =g2 (X1X2) pour certaines fonctions g1 et g2 . Ici g1 et g2 satisfait les conditions du jacobien comme continu et ont des dérivées partielles continues.

Maintenant, la probabilité pour de telles fonctions de variables aléatoires sera

Exemples sur la distribution de probabilité conjointe de la fonction de variables aléatoires

  1. Trouver la fonction de densité conjointe des variables aléatoires Y1 =X1 +X2 Andy2=X1 -X2 , où X1 et X2 sont la fonction de densité de probabilité conjointe continue et conjointe. discutez également de la nature différente de la distribution.

Ici, nous allons d'abord vérifier Jacobian

J (x_ {1}, x_ {2}) = \ begin {vmatrix} \ frac {\ partial g_1} {\ partial x_1} & \ frac {\ partial g_1} {\ partial x_2} \ \\ \ frac {\ partial g_2} {\ partial x_1} & \ frac {\ partial g_2} {\ partial x_2} \ end {vmatrix}

depuis g1(x1, X2) = x1 + x2  et g2(x1, X2) = x1 - X2 so

J (x_ {1}, x_ {2}) = \ begin {vmatrix} 1 & 1 \ \\ 1 & -1 \ end {vmatrix} = -2

simplifier Y1 =X1 +X2 Andy2=X1 -X2 , pour la valeur de X1 = 1/2 (Oui1 +Y2 ) et X2 = Y1 -Y2 ,

f_{Y_{1}},<em>{Y</em>{2}}(y_{1},y_{2})=\frac{1}{2}f_{X_{1},X_{2}}\left ( \frac{y_{1}+y_{2}}{2},\frac{y_{1} - y_{2}}{2} \right )

si ces variables aléatoires sont des variables aléatoires uniformes indépendantes

f_ {Y_ {1}, Y_ {2}} (y_ {1}, y_ {2}) = \ begin {cases} \ frac {1} {2} \ \ 0 \ leq y_ {1} + y_ {2 } \ leq 2 \ \, \ \ 0 \ leq y_ {1} - y_ {2} \ leq 2 \\ 0 \ \ sinon \ end {cases}

ou si ces variables aléatoires sont des variables aléatoires exponentielles indépendantes avec des paramètres usuels

ou si ces variables aléatoires sont des variables aléatoires normales indépendantes, alors

f_{Y_{1},Y_{2}} (y_{1},y_{2}) =\frac{1}{4\pi }e^{-[(y_{1}+y_{2})^{2}/8 + (y_{1} -y_{2})^{2}/8]}

= \ frac {1} {4 \ pi} e ^ {- \ gauche (y_ {1} ^ {2} + y_ {2} ^ {2} \ droite) / 4}

=\frac{1}{\sqrt{4\pi }}e^{-y_{1}^{2}/4} \frac{1}{\sqrt{4\pi }}e^{-y_{2}^{2}/4}

  • Si X et Y sont les variables normales standard indépendantes telles que données
Distribution conditionnelle

calculer la distribution conjointe pour les coordonnées polaires respectives.

Nous convertirons par la conversion habituelle X et Y en r et θ comme

g_ {1} (x, y) = \ sqrt {x ^ {2} + y ^ {2}} \ \ et \ \ \ theta = g_ {2} (x, y) = tan ^ {- 1} \ frac {y} {x}

donc les dérivées partielles de ces fonctions seront

\ frac {\ partial g_ {1}} {\ partial x} = \ frac {x} {\ sqrt {x ^ {2} + y ^ {2}}}

\ frac {\ partial g_ {2}} {\ partial x} = \ frac {1} {1+ (y / x) ^ {2}} \ left (\ frac {-y} {x ^ {2}} \ right) ^ {2} = \ frac {-y} {x ^ {2} + y ^ {2}}

\ frac {\ partial g_ {1}} {\ partial y} = \ frac {y} {\ sqrt {x ^ {2} + y ^ {2}}}

\ frac {\ partial g_ {2}} {\ partial y} = \ frac {1} {x \ left [1+ (y / x) ^ {2} \ right]} = \ frac {x} {x ^ {2} + y ^ {2}}

donc le jacobien utilisant ces fonctions est

J(x,y)=\frac{x^{2}}{(x^{2}+y^{2})^{3/2}} + \frac{y^{2}}{(x^{2}+y^{2})^{3/2}} =\frac{1}{\sqrt{x^{2}+y^{2}}}=\frac{1}{r}

si les deux variables aléatoires X et Y sont supérieures à zéro, la fonction de densité conjointe conditionnelle est

f (x, y | X> 0, Y> 0) = \ frac {f (x, y)} {P (X> 0, Y> 0)} = \ frac {2} {\ pi} e ^ { - (x ^ {2} + y ^ {2}) / 2} \ \ x> 0, \ \ y> 0

maintenant la conversion de la coordonnée cartésienne en coordonnée polaire en utilisant

r = \ sqrt {x ^ {2} + y ^ {2}} \ \ et \ \ \ theta = tan ^ {- 1} \ left (\ frac {y} {x} \ right)

donc la fonction de densité de probabilité pour les valeurs positives sera

f (r, \ theta | X> 0, Y> 0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ 0 <\ theta <\ frac {\ pi } {2}, \ \ 0 <r <\ infty

pour les différentes combinaisons de X et Y, les fonctions de densité de manière similaire sont

f (r, \ theta | X 0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ \ pi / 2 <\ theta <\ pi, \ \ 0 < r <\ infty

f (r, \ theta | X <0, Y <0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ \ pi <\ theta <3 \ pi / 2, \ \ 0 <r <\ infty

f (r, \ theta | X> 0, Y <0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ 3 \ pi / 2 <\ theta <2 \ pi, \ \ 0 <r <\ infty

maintenant à partir de la moyenne des densités ci-dessus, nous pouvons énoncer la fonction de densité comme

f (r, \ theta) = \ frac {1} {2 \ pi} re ^ {- r ^ {2} / 2}, \ \ 0 <\ theta <2 \ pi, \ \ 0 <r <\ infty

et la fonction de densité marginale à partir de cette densité conjointe de coordonnées polaires sur l'intervalle (0, 2π)

f (r) = re ^ {- r ^ {2} / 2}, \ \ 0 <r <\ infty

  • Trouvez la fonction de densité conjointe pour la fonction de variables aléatoires

U = X + Y et V = X / (X + Y)

où X et Y sont la distribution gamma avec les paramètres (α + λ) et (β + λ) respectivement.

En utilisant la définition de la distribution gamma et de la fonction de distribution conjointe, la fonction de densité pour les variables aléatoires X et Y sera

f_ {X, Y} (x, y) = \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ Gamma (\ alpha)} \ frac {\ lambda e ^ {- \ lambda y} (\ lambda y) ^ {\ beta -1}} {\ Gamma (\ beta)}

= \ frac {\ lambda ^ {\ alpha + \ beta}} {\ Gamma (\ alpha) \ Gamma (\ beta)} e ^ {- \ lambda (x + y)} x ^ {\ alpha -1} y ^ {\ beta -1}

considérer les fonctions données comme

g1 (x, y) = x + y, g2 (x, y) = x / (x + y),

donc la différenciation de ces fonctions est

\ frac {\ partial g_ {1}} {\ partial x} = \ frac {\ partial g_ {1}} {\ partial y} = 1

\ frac {\ partial g_ {2}} {\ partial x} = \ frac {y} {(x + y) ^ {2}}

\ frac {\ partial g_ {2}} {\ partial y} = - \ frac {x} {(x + y) ^ {2}}

maintenant le Jacobien est

J (x, y) = \ begin {vmatrix} 1 & 2 \ \\ \ frac {y} {(x + y) ^ {2}} & \ frac {-x} {(x + y) ^ {2 }} \ end {vmatrix} = - \ frac {1} {x + y}

après avoir simplifié les équations données les variables x=uv et y=u(1-v) la fonction de densité de probabilité est

f_ {U, V} (u, v) = f_ {X, Y} \ left [uv, u (1-v) \ right] u

= \ frac {\ lambda e ^ {- \ lambda u} (\ lambda u) ^ {\ alpha + \ beta -1}} {\ Gamma (\ alpha + \ beta)} \ frac {v ^ {\ alpha - 1} (1-v) ^ {\ beta -1} \ Gamma (\ alpha + \ beta)} {\ Gamma (\ alpha) \ Gamma (\ beta)}

nous pouvons utiliser la relation

B (\ alpha, \ beta) = \ int_ {0} ^ {1} v ^ {\ alpha -1} (1-v) ^ {\ beta -1} dv

= \ frac {\ Gamma (\ alpha) \ Gamma (\ beta)} {\ Gamma (\ alpha + \ beta)}

  • Calculer la fonction de densité de probabilité conjointe pour

Y1 =X1 +X2+ X3 , Y2 =X1- X2 , Y3 =X1 - X3

où les variables aléatoires X1 X2X3 sont les variables aléatoires normales standard.

Calculons maintenant le jacobien en utilisant des dérivées partielles de

Y1 =X1 +X2+ X3 , Y2 =X1- X2 , Y3 =X1 - X3

as

J = \ begin {vmatrix} 1 & 1 & 1 \ \\ 1 & -1 & 0 \\ \ 1 & 0 & -1 \ end {vmatrix} = 3

simplification pour les variables X1 X2 et X3

X1 = (O1 + O2 + O3) / 3, X2 = (O1 - 2 ans2 + O3) / 3, X3 = (O1 + O2 -2 ans3) / 3

nous pouvons généraliser la fonction de densité articulaire comme

f_ {Y_ {1} \ cdot \ cdot \ cdot Y_ {n}} (y_ {1} \ cdot \ cdot \ cdot y_ {n}) = f_ {X_ {1} \ cdot \ cdot \ cdot X_ {n} } (x_ {1} \ cdot \ cdot \ cdot x_ {n}) | J (x_ {1} \ cdot \ cdot \ cdot x_ {n}) | ^ {- 1}

donc nous avons

f_{Y_{1}, Y_{2},Y_{3}}(y_{1}, y_{2},y_{3})=\frac{1}{3}f_{X_{1},X_{2},X_{3}}\left ( \frac{y_{1}+y_{2}+y_{3}}{3}, \frac{y_{1}-2y_{2}+y_{3}}{3}, \frac{y_{1}+y_{2} -2y_{3}}{3} \right )

pour la variable normale, la fonction de densité de probabilité conjointe est

f_{X_{1}, X_{2},X_{3}}(x_{1}, x_{2},x_{3})=\frac{1}{(2\pi )^{3/2}}e^{-\sum_{i=1}^{3}x_{i}^{2}/2}

d'où

f_{Y_{1}, Y_{2}, Y_{3}}(y_{1}, y_{2}, y_{3})=\frac{1}{3(2\pi )^{3/2}}e^{-Q(y_{1},y_{2},y_{3})/2}

où se trouve l'index

Q (y_ {1}, y_ {2}, y_ {3}) = \ gauche (\ frac {(y_ {1} + y_ {2} + y_ {3})} {3} \ droite) ^ {2 } + \ gauche (\ frac {(y_ {1} -2y_ {2} + y_ {3})} {3} \ droite) ^ {2} + \ gauche (\ frac {(y_ {1} + y_ { 2} -2y_ {3})} {3} \ right) ^ {2}

=\frac{y_{1}^{2}}{3} + \frac{2}{3} y_{2}^{2} +\frac{2}{3} y_{3}^{2} -\frac{2}{3}y_{2}y_{3}

calculer la fonction de densité conjointe de Y1 …… On et fonction de densité marginale pour Yn

Y_ {i} = X_ {1} + \ cdot \ cdot \ cdot. + X_ {i} \ \ i = 1, \ cdot \ cdot \ cdot .., n

et Xi sont des variables aléatoires exponentielles indépendantes à distribution identique de paramètre λ.

pour les variables aléatoires de la forme

Y1 =X1 , Y2 =X1 + X2 , ……, Ouin =X1 + ……+ Xn

le jacobien sera de la forme

et donc sa valeur est un, et la fonction de densité conjointe pour la variable aléatoire exponentielle

f_ {X_ {1} \ cdot \ cdot \ cdot X_ {n}} (x_ {1}, \ cdot \ cdot \ cdot, x_ {n}) = \ prod_ {i = 1} ^ {n} \ lambda e ^ {- \ lambda x_ {i}} \ \ 0 <x_ {i} <\ infty, \ \ i = 1, \ cdot \ cdot \ cdot, n

et les valeurs de la variable Xi ce sera

X_ {1} = Y_ {1}, X_ {2} = Y_ {2} -Y_ {1}, \ cdot \ cdot \ cdot, X_ {i} = Y_ {i} -Y_ {i-1}, \ cdot \ cdot \ cdot, X_ {n} = Y_ {n} -Y_ {n-1}

donc la fonction de densité articulaire est

f_ {Y_ {1}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {1}, y_ {2}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = f_ {X_ {1 }, \ cdot \ cdot \ cdot \ cdot, X_ {n}} (y_ {1}, y_ {2} -y_ {1}, \ cdot \ cdot \ cdot \ cdot \ cdot, y_ {i} -y_ { i-1}, \ cdot \ cdot \ cdot, y_ {n} -y_ {n-1})

= \ lambda ^ {n} exp \ left {- \ lambda \ left [y_ {1} + \ sum_ {i = 2} ^ {n} (y_ {i} -y_ {i-1}) \ right] \ droite }

= \ lambda ^ {n} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {1}, 0 <y_ {i} -y_ {i-1}, i = 2, \ cdot \ cdot \ cdot, n

= \ lambda ^ {n} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {1} <y_ {2} <\ cdot \ cdot \ cdot <y_ {n}

Maintenant, pour trouver la fonction de densité marginale de Yn nous intégrerons un par un comme

f_ {Y_ {2}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {2}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = \ int_ {0} ^ {y_ {2 }} \ lambda ^ {n} e ^ {- \ lambda y_ {n}} dy_ {1}

= \ lambda ^ {n} y_ {2} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {2} <y_ {3} <\ cdot \ cdot \ cdot <y_ {n}

et

f_ {Y_ {3}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {3}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = \ int_ {0} ^ {y_ {3 }} \ lambda ^ {n} y_ {2} e ^ {- \ lambda y_ {n}} dy_ {2}

= \ frac {\ lambda ^ {n}} {2} y_ {3} ^ {2} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {3} <y_ {4} <\ cdot \ cdot \ cdot <y_ {n}

de même

f_ {Y_ {4}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {4}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = \ frac {\ lambda ^ {n}} {3!} Y_ {4} ^ {3} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {4} <\ cdot \ cdot \ cdot <y_ {n}

si nous continuons ce processus, nous obtiendrons

f_ {Y_ {n}} (y_ {n}) = \ lambda ^ {n} \ frac {y_ {n} ^ {n-1}} {(n-1)!} e ^ {- \ lambda y_ { n}} \ \ 0 <y_ {n}

qui est la fonction de densité marginale.

Conclusion:

au jugement, distribution conditionnelle pour la variable aléatoire discrète et continue avec différents exemples considérant certains des types de ces variables aléatoires discutés, où la variable aléatoire indépendante joue un rôle important. En outre, la distribution conjointe pour la fonction de variables aléatoires continues conjointes également expliquée avec des exemples appropriés, si vous avez besoin de plus de lecture, passez par les liens ci-dessous.

Pour plus d'articles sur les mathématiques, veuillez consulter notre Page de mathématiques

Wikipédiahttps://en.wikipedia.org/wiki/joint_probability_distribution/” target=”_blank” rel=”noreferrer noopener” class=”rank-math-link”>Wikipedia.org

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda