Attente conditionnelle | Ses propriétés importantes avec plus de 5 exemples

Table des matières

Car la variable aléatoire dépendante les unes des autres nécessite le calcul des probabilités conditionnelles dont nous avons déjà parlé, nous allons maintenant discuter de quelques paramètres supplémentaires pour de telles variables aléatoires ou des expériences telles que l'espérance conditionnelle et la variance conditionnelle pour différents types de variables aléatoires.

Attente conditionnelle

   La définition de la fonction de masse de probabilité conditionnelle de la variable aléatoire discrète X étant donné Y est

p_{X|Y}(x|y)=P \gauche { X=x|Y=y \right }= \frac{p(x,y)}{p_{Y}(y)}

ici pY(y)>0 , donc l'espérance conditionnelle pour la variable aléatoire discrète X étant donné Y lorsque pY (y)>0 est

E\gauche [ X|Y=y \right ] =\sum_{x}^{} xP \gauche \{ X=x|Y=y \right \}

=\somme_{x}^{} xp_{X|Y}(x|y)

dans l'espérance ci-dessus, la probabilité est la probabilité conditionnelle.

  De la même manière, si X et Y sont continus, la fonction de densité de probabilité conditionnelle de la variable aléatoire X étant donné Y est

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

où f(x,y) est la fonction de densité de probabilité jointe et pour tout yfY(y)>0 , donc l'espérance conditionnelle pour la variable aléatoire X étant donné y sera

E\gauche [ X|Y=y \right ]=\int_{-\infty}^{\infty}xf_{X|Y}(x|y)dx

pour tous yfY(y)>0.

   Comme nous savons que toutes les propriétés de probabilité sont applicables à la probabilité conditionnelle, il en est de même pour l'espérance conditionnelle, toutes les propriétés de l'espérance mathématique sont satisfaites par l'espérance conditionnelle, par exemple l'espérance conditionnelle de la fonction de la variable aléatoire sera

\begin{array}{c} E[g(X) \mid Y=y]=\left\{\begin{array}{l} \sum_{x} g(x) p_{X \mid Y}( x \mid y) \quad \text { dans le cas discret } \\ \int_{-\infty}^{\infty} g(x) f_{X \mid} \gamma(x \mid y) dx \text { dans le cas continu } \end{array} \end{array}

et la somme des variables aléatoires dans l'espérance conditionnelle sera

\begin{aligned} E\left[\sum_{i=1}^{n} X_{i} \mid Y=y\right]=\sum_{i=1}^{n} E\left[X_{ i} \mid Y=y\right] \end{aligned}

Espérance conditionnelle pour la somme des variables aléatoires binomiales

    Pour trouver l'espérance conditionnelle de la somme des variables aléatoires binomiales X et Y avec des paramètres n et p qui sont indépendants, nous savons que X+Y sera aussi une variable aléatoire binomiale avec les paramètres 2n et p, donc pour la variable aléatoire X étant donné X+ Y=m l'espérance conditionnelle sera obtenue en calculant la probabilité

\begin{aligné} P[X=k \mid X+Y=m] &=\frac{P[X=k, X+Y=m]}{P(X+Y=m)} \\ &= \frac{P[X=k, Y=mk]}{P[X+Y=m]} \\ &=\frac{P[X=k \mid P[Y=mk \mid}{P(X +Y=m]} \\ &=\frac{\left(\begin{array}{l} n \\ k \end{array}\right) p^{k}(1-p)^{nk} \left(\begin{array}{c} n \\ mk \end{array}\right) p^{mk}(1-p)^{n-m+k}}{\left(\begin{array }{l} 2 n \\ m \end{array}\right) p^{m}(1-p)^{2 nm}} \end{aligned}

puisque nous savons que

E[X]=E\gauche[X_{1}\right]+\cdots+E\gauche[X_{m}\right]=\frac{mn}{N}

ainsi l'espérance conditionnelle de X étant donné X+Y=m est

E[X \mid X+Y=m]=\frac{m}{2}

Mise en situation :

Trouver l'espérance conditionnelle

E[X \mid Y=y] .

si la fonction de densité de probabilité conjointe des variables aléatoires continues X et Y est donnée par

f(x, y)=\frac{e^{-x / y} e^{-y}}{y} & 0

Solution:

Pour calculer l'espérance conditionnelle, nous avons besoin d'une fonction de densité de probabilité conditionnelle, donc

\begin{aligné} f_{X \mid Y}(x \mid y) &=\frac{f(x, y)}{f_{Y}(y)} \\ &=\frac{f(x, y)}{\int_{-\infty}^{\infty} f(x, y) dx} \\ &=\frac{(1 / y) e^{-x / y} e^{-y} }{\int_{0}^{\infty}(1 / y) e^{-x / y_{e}-y} dx} \\ &=\frac{(1 / y) e^{-x / y}}{\int_{0}^{\infty}(1 / y) e^{-x / y} dx} \\ &=\frac{1}{y} e^{-x / y} \ fin{aligné}

puisque pour la variable aléatoire continue l'espérance conditionnelle est

E[X \mid Y=y]=\int_{-\infty}^{\infty} x f_{X \mid Y}(x \mid y) dx

par conséquent, pour la fonction de densité donnée, l'espérance conditionnelle serait

E[X \mid Y=y]=\int_{0}^{\infty} \frac{x}{y} e^{-x / y} dx=y

Attente par conditionnement||Attente par attente conditionnelle

                Nous pouvons calculer l'espérance mathématique à l'aide de l'espérance conditionnelle de X étant donné Y comme

E[X]=E[E[X \mid Y]]

pour les variables aléatoires discrètes ce sera

E[X]=\sum_{y} E[X \mid Y=y] P\{Y=y\}

qui peut être obtenu comme

\begin{aligned} \sum_{y} E[X \mid Y=y] P\{Y=y\} &=\sum_{y} \sum_{x} x P[X=x \mid Y=y \} P\{Y=y\} \\ &=\sum_{y} \sum_{x} x \frac{P\{X=x, Y=y\}}{P\{Y=y\} } P[Y=y\} \\ &=\sum_{y} \sum_{x} x P[X=x, Y=y\} \\ &=\sum_{x} x \sum_{y} P \{X=x, Y=y\} \\ &=\sum_{x} x P\{X=x\} \\ &=E[X] \end{aligned}

et pour l'aléatoire continu, nous pouvons montrer de la même manière

E[X] =\int_{-\infty}^{\infty} E\left[X|Y=y| f_{Y}(y) dy\right.

Mise en situation :

                Une personne est piégée dans son immeuble sous terre car l'entrée est bloquée en raison d'une charge lourde. Heureusement, il y a trois canalisations d'où elle peut sortir, la première canalisation l'emmène en toute sécurité après 3 heures, la deuxième après 5 heures et la troisième canalisation après 7 heures, si l'un de ces pipelines est également choisi par lui, alors quelle serait l'heure à laquelle il sortira en toute sécurité.

Solution:

Soit X la variable aléatoire qui désigne le temps en heures jusqu'à ce que la personne sorte en toute sécurité et Y désigne le tuyau qu'il choisit initialement, donc

E[X]=E[X \mid Y=1] P\{Y=1\}+E[X \mid Y=2] P\{Y=2\}+E[X \mid Y=3] P\{Y=3\}\\ =\frac{1}{3}(E[X \mid Y=1]+E[X \mid Y=2]+E[X \mid Y=3])

depuis

$E[X \mid Y=1]=3$\\ $E[X \mid Y=2]=5+E[X]$\\ $E[X \mid Y=3]=7+E[ X]$

Si la personne choisit le deuxième tuyau , il y passe 5 heures mais il sort avec le temps prévu

E[X \mid Y=2]=5+E[X]

donc l'attente sera

E[X]=\frac{1}{3}(3+5+E[X]+7+E[X]) \quad E[X]=15

Espérance de la somme d'un nombre aléatoire de variables aléatoires à l'aide de l'espérance conditionnelle

                Soit N le nombre aléatoire de variable aléatoire et la somme des variables aléatoires est     alors l'attente  

E\left[\sum_{1}^{N} X_{i}\right]=E\left[E\left[\sum_{1}^{N} X_{i} \mid N\right]\right ]

depuis

E\left[\sum_{1}^{N} X_{i} \mid N=n\right]=E\left[\sum_{1}^{n} X_{i} \mid N=n\right ]\\ =E\left[\sum_{1}^{n} X_{i}\right] \text{ par l'indépendance des }X_{i} \text{ et }N \\=n E[X ] \text{where} E[X]=E\left[X_{i}\right]

as

E\left[\sum_{1}^{N} X_{i} \mid N\right]=NE[X]

ainsi

E\gauche[\sum_{i=1}^{N} X_{i}\right]=E[NE[X]]=E[N] E[X]

Corrélation de la distribution bivariée

Si la fonction de densité de probabilité de la variable aléatoire bivariée X et Y est

\begin{array}{c}f(x, y)=\frac{1}{2 \pi \sigma_{x} \sigma_{y} \sqrt{1-\rho^{2}}} \exp \ left\{-\frac{1}{2\left(1-\rho^{2}\right)}\right. & {\left[\left(\frac{x-\mu_{x}}{\sigma_{x}}\right)^{2}+\left(\frac{y-\mu_{y}}{\ sigma_{y}}\right)^{2}\right.} & \left. \left.-2 \rho \frac{\left(x-\mu_{x}\right)\left(y-\mu_{y}\right)}{\sigma_{x} \sigma_{y}}\ right]\right\}\end{array}

\mu_{x}=E[X], \sigma_{x}^{2}=\operatorname{Var}(X)$, et $\mu_{y}=E[Y], \sigma_{y}^ {2}=\nom_opérateur{Var}(Y)$

alors la corrélation entre la variable aléatoire X et Y pour la distribution bivariée avec fonction de densité est

puisque la corrélation est définie comme

$\operatorname{Corr}(X, Y)=\frac{\operatorname{Cov}(X, Y)}{\sigma_{x} \sigma_{y}}$\\ $=\frac{E[XY] -\mu_{x} \mu_{y}}{\sigma_{x} \sigma_{y}}$

puisque l'espérance utilisant l'espérance conditionnelle est

E[XY]=E[E[XY \mid Y]]

pour la distribution normale, la distribution conditionnelle X étant donné Y a une moyenne

mu_{x}+\rho \frac{\sigma_{x}}{\sigma_{y}}\left(y-\mu_{y}\right)

maintenant l'espérance de XY étant donné Y est

attente conditionnelle
Distribution normale

cela donne

begin{aligned} E[XY] &=E\left[Y \mu_{x}+\rho \frac{\sigma_{x}}{\sigma_{y}}\left(Y^{2}-\mu_ {y} Y\right)\right] \\ &=\mu_{x} E[Y]+\rho \frac{\sigma_{x}}{\sigma_{y}} E\left[Y^{2 }-\mu_{y} Y\right] \\ &=\mu_{x} \mu_{y}+\rho \frac{\sigma_{x}}{\sigma_{y}}\left(E\left [Y^{2}\right]-\mu_{y}^{2}\right) \\ &=\mu_{x} \mu_{y}+\rho \frac{\sigma_{x}}{\ sigma_{y}} \operatorname{Var}(Y) \\ &=\mu_{x} \mu_{y}+\rho \sigma_{x} \sigma_{y} \end{aligned}

d'où

\operatorname{Corr}(X, Y)=\frac{\rho \sigma_{x} \sigma_{y}}{\sigma_{x} \sigma_{y}}=\rho

Variation de la distribution géométrique

    Dans la distribution géométrique, effectuons successivement des essais indépendants qui aboutissent à un succès avec une probabilité p , Si N représente le moment du premier succès dans ces successions alors la variance de N comme par définition sera

\operatorname{Var}(N)=E\left[N^{2}\right]-(E[N])^{2}

Soit la variable aléatoire Y=1 si le premier essai aboutit à un succès et Y=0 si le premier essai aboutit à un échec, maintenant pour trouver l'espérance mathématique ici, nous appliquons l'espérance conditionnelle comme

E\left[N^{2}\right]=E\left[E\left[N^{2} \mid Y\right]\right]

depuis

E\gauche[N^{2} \mid Y=1\right]=1\\ E\gauche[N^{2} \mid Y=0\right]=E\gauche[(1+N)^{ 2}\droit]

si le succès est au premier essai alors N=1 et N2=1 si l'échec se produit dans le premier essai, alors pour obtenir le premier succès, le nombre total d'essais aura la même distribution que 1, c'est-à-dire le premier essai qui aboutit à un échec avec plus le nombre nécessaire d'essais supplémentaires,

E\gauche[N^{2} \mid Y=0\right]=E\gauche[(1+N)^{2}\right]

Ainsi, l'attente sera

E\left[N^{2}\right]=E\left[N^{2} \mid Y=1\right] P\{Y=1\}+E\left[N^{2} \mid Y=0\right] P\{Y=0\}\\ =p+(1-p) E\left[(1+N)^{2}\right]\\ =1+(1-p) E \left[2 N+N^{2}\right]

puisque l'espérance de la distribution géométrique est so

E[N]=1 / p

d'où

E\left[N^{2}\right]=1+\frac{2(1-p)}{p}+(1-p) E\left[N^{2}

ET

E\gauche[N^{2}\right]=\frac{2-p}{p^{2}}

donc la variance de la distribution géométrique sera

\begin{aligned}\operatorname{Var}(N) & =E\left[N^{2}\right]-(E[N])^{2} \\ = & \frac{2-p}{ p^{2}}-\left(\frac{1}{p}\right)^{2} \\ = & \frac{1-p}{p^{2}}\end{aligned}

Attente du minimum de séquence de variables aléatoires uniformes

   La séquence de variables aléatoires uniformes U1, ELLE EST2 … .. sur l'intervalle (0, 1) et N est défini comme

N=\min \left\{n : \sum_{i=1}^{n} U_{i}>1\right\}

alors pour l'espérance de N, pour tout x ∈ [0, 1] la valeur de N

N(x)=\min \gauche\{n: \sum_{i=1}^{n} U_{i}>x\droit\}

nous allons définir l'espérance de N comme

m(x)=E[N(x)]

pour trouver l'espérance, nous utilisons la définition de l'espérance conditionnelle sur une variable aléatoire continue

E[X \mid Y=y]=\int_{-\infty}^{\infty} x f_{X \mid Y}(x \mid y) dx

conditionnant maintenant pour le premier terme de la suite  nous avons

m(x)=\int_{0}^{1} E\left[N(x) \mid U_{1}=y\right] dy

ici nous obtenons

E\left[N(x) \mid U_{1}=y\right]=\left\{\begin{array}{ll}1 & \text { if } y>x \\ 1+m(xy) & \text { if } y \leq x\end{array}\right.

le nombre restant de variables aléatoires uniformes est le même au point où la première valeur uniforme est y, en commençant, puis nous allions ajouter des variables aléatoires uniformes jusqu'à ce que leur somme dépasse x − y.

donc en utilisant cette valeur d'espérance, la valeur de l'intégrale sera

m(x)=1+\int_{0}^{x} m(xy) dy\\ =1+\int_{0}^{x} m(u) du \text{ en laissant }u=xy

si on différencie cette équation

m^{\premier}(x)=m(x)

ET

\frac{m^{\prime}(x)}{m(x)}=1

maintenant intégrer cela donne

\log [m(x)]=x+c

d'où

m(x)=ke^{x}

la valeur de k=1 si x=0 , donc

m(x)=e^{x}

et m(1) =e, le nombre attendu de variables aléatoires uniformes sur l'intervalle (0, 1) qui doivent être additionnées jusqu'à ce que leur somme dépasse 1, est égal à e

Probabilité utilisant l'espérance conditionnelle || probabilités utilisant le conditionnement

   Nous pouvons également trouver la probabilité en utilisant l'espérance conditionnelle comme l'espérance que nous avons trouvée avec l'espérance conditionnelle, pour obtenir cela, considérons un événement et une variable aléatoire X comme

X=\left\{\begin{array}{ll}1 & \text { if } E \text { se produit } \\ 0 & \text { if } E \text { ne se produit pas }\end{array}\ droite.

de la définition de cette variable aléatoire et de l'attente clairement

E[X]=P(E)\\ E[X \mid Y=y]=P(E \mid Y=y)$ pour toute variable aléatoire $Y$

maintenant par attente conditionnelle dans un sens quelconque nous avons

P(E)=\sum_{y} P(E \mid Y=y) P(Y=y) \quad$ si $Y$ est discret\\ $=\int_{-\infty}^{\infty} P(E \mid Y=y) f_{Y}(y) dy \quad$ si $Y$ est continu

Mise en situation :

calculer la fonction de masse de probabilité de la variable aléatoire X , si U est la variable aléatoire uniforme sur l'intervalle (0,1), et considérer la distribution conditionnelle de X étant donné U=p comme binomiale avec les paramètres n et p.

Solution:

Pour la valeur de U la probabilité par conditionnement est

\begin{aligned} P[X=i] ​​&=\int_{0}^{1} P\left[X=i \mid U=pl f_{U}(p) dp\right.\\ &=\ int_{0}^{1} P[X=i \mid U=p\} dp \\ &=\frac{n !}{i !(ni) !} \int_{0}^{1} p^ {i}(1-p)^{ni} dp \end{aligné}

nous avons le résultat

\int_{0}^{1} p^{i}(1-p)^{ni} dp=\frac{i !(ni) !}{(n+1) !}

donc nous allons obtenir

P[X=i]=\frac{1}{n+1} \quad i=0, \ldots, n

Mise en situation :

quelle est la probabilité de X < Y, si X et Y sont les variables aléatoires continues avec des fonctions de densité de probabilité fX et fY respectivement.

Solution:

En utilisant l'espérance conditionnelle et la probabilité conditionnelle

\begin{aligné} P\{X

as

FX(y)=\int_{-\infty}^{y} f_{X}(x) dx

Mise en situation :

Calculer la distribution de la somme des variables aléatoires indépendantes continues X et Y.

Solution:

Pour trouver la distribution de X+Y, nous devons trouver la probabilité de la somme en utilisant le conditionnement comme suit

\begin{aligné}P(X+Y

Conclusion:

L'espérance conditionnelle pour la variable aléatoire discrète et continue avec différents exemples en considérant certains des types de ces variables aléatoires discutés à l'aide de la variable aléatoire indépendante et de la distribution conjointe dans différentes conditions. exemples, si vous avez besoin de lectures supplémentaires, parcourez les livres ci-dessous ou pour plus d'articles sur les probabilités, veuillez suivre notre Pages de mathématiques.

https://en.wikipedia.org/wiki/probability_distribution

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda