Variance conditionnelle et prédictions | Ses propriétés importantes avec 5+ exemple

Dans cet article, nous discuterons de la variance conditionnelle et des prédictions utilisant l'espérance conditionnelle pour les différents types de variables aléatoires.

Table des matières

Écart conditionnel

La variance conditionnelle de la variable aléatoire X étant donné Y est définie de la même manière que l'espérance conditionnelle de la variable aléatoire X étant donné Y comme

Var(X|Y)=E[(XE[X|Y])^{2}|Y]

ici, la variance est l'espérance conditionnelle de la différence entre la variable aléatoire et le carré de l'espérance conditionnelle de X étant donné Y lorsque la valeur de Y est donnée.

La relation entre la variance conditionnelle et l'espérance conditionnelle est

\operatorname{Var}(X \mid Y)=E\left[X^{2} \mid Y\right]-(E[X \mid Y])^{2} \\\begin{aligned} E[ \operatorname{Var}(X \mid Y)] &=E\left[E\left[X^{2} \mid Y\right]\right]-E\left[(E[X \mid Y]) ^{2}\right] \\ &=E\left[X^{2}\right]-E\left[(E[X \mid Y])^{2}\right] \end{aligned} \ \puisque \; E[E[X \mid Y]]=E[X], \;we\; have \\\operatorname{Var}(E[X \mid Y])=E\left[(E[X \mid Y])^{2}\right]-(E[X])^{2}

ceci est en quelque sorte similaire de la relation de variance inconditionnelle et d'espérance qui était

\operatorname{Var}(X)=E\left[X^{2}\right]-(E[X])^{2}

et nous pouvons trouver la variance à l'aide de la variance conditionnelle comme

\operatorname{Var}(X)=E[\operatorname{Var}(X \mid Y)]+\operatorname{Var}(E[X \mid Y])

Exemple de variance conditionnelle

Trouver la moyenne et la variance du nombre de voyageurs qui entrent dans le bus si les personnes arrivées au dépôt de bus sont distribuées de Poisson avec la moyenne λt et le bus initial arrivé au dépôt de bus est uniformément distribué sur l'intervalle (0,T) indépendamment des personnes arrivé ou pas.

Solution:

Pour trouver la moyenne et la variance laissées pour tout instant t , Y est la variable aléatoire pour le temps d'arrivée du bus et N(t) est le nombre d'arrivées

E[N(Y) \mid Y=t]=E[N(t) \mid Y=t] \\=E[N(t)]

par l'indépendance de Y et N(t)

=\lambda t

puisque N(t) est Poisson de moyenne \lambda t
Par conséquent

E[N(Y) \mid Y]=\lambda Y

donc prendre les attentes donne

E[N(Y)]=\lambda E[Y]=\frac{\lambda T}{2}

Pour obtenir Var(N(Y)), on utilise la formule de variance conditionnelle

\operatorname{Var}(N(Y) \mid Y=t)=\operatorname{Var}(N(t) \mid Y=t) \\=\operatorname{Var}(N(t)) \quadby \ quad indépendance \quad\quad \\=\lambda t

ainsi

\begin{aligned} \operatorname{Var}(N(Y) \mid Y) &=\lambda Y \\ E[N(Y) \mid Y] &=\lambda Y \end{aligned}

Ainsi, à partir de la formule de la variance conditionnelle,

\begin{aligned} \operatorname{Var}(N(Y)) &=E[\lambda Y]+\operatorname{Var}(\lambda Y) \\ &=\lambda \frac{T}{2}+ \lambda^{2} \frac{T^{2}}{12} \end{aligned}

où nous avons utilisé le fait que Var(Y)=T2 / 12.

Variance d'une somme d'un nombre aléatoire de variables aléatoires

considérer la séquence de variables aléatoires indépendantes et identiquement distribuées X1,X2,X3,………. et une autre variable aléatoire N indépendante de cette séquence, nous trouverons la variance de la somme de cette séquence comme

\operatorname{Var}\left(\sum_{i=1}^{N} X_{i}\right)

en utilisant

\begin{aligned} E\left[\sum_{i=1}^{N} X_{i} \mid N\right] &=NE[X] \\ \operatorname{Var}\left(\sum_{i =1}^{N} X_{i} \mid N\right) &=N \operatorname{Var}(X)\right] \end{aligned}

ce qui est évident avec la définition de la variance et de la variance conditionnelle pour la variable aléatoire individuelle à la somme de la séquence de variables aléatoires, d'où

\\ \operatorname{Var}\left(\sum_{i=1}^{N} X_{i}\right)=E[N] \operatorname{Var}(X)+(E[X])^{ 2} \nom_opérateur{Var}(N)

Prédiction

Dans la prédiction, la valeur d'une variable aléatoire peut être prédite sur la base de l'observation d'une autre variable aléatoire, pour la prédiction de la variable aléatoire Y si la variable aléatoire observée est X, nous utilisons g(X) comme fonction qui indique la valeur prédite, évidemment nous essayez de choisir g(X) proche de Y pour cela le meilleur g est g(X)=E(Y|X) pour cela il faut minimiser la valeur de g en utilisant l'inégalité

\\ E\gauche[(Yg(X))^{2}\droite] \geq E\gauche[(YE[Y \mid X])^{2}

Cette inégalité, nous pouvons obtenir comme

\begin{aligned} E\left[(Yg(X))^{2} \mid X\right]=& E\left[(YE[Y \mid X]+E[Y \mid X]-g( X))^{2} \mid X\right] \\ =& E\left[(YE[Y \mid X])^{2} \mid X\right] \\ &+E\left[(E [Y \mid X]-g(X))^{2} \mid X\right] \\ &+2 E[(YE[Y \mid X])(E[Y \mid X]-g(X )) \mid X] \end{aligné}

Cependant, étant donné X, E[Y|X]-g(X), étant fonction de X, peut être traité comme une constante. Ainsi,

\ \begin{aligned} E[&(YE[Y \mid X])(E[Y \mid X]-g(X)) \mid X] \\ &=(E[Y \mid X]-g (X)) E[YE[Y \mid X] \mid X] \\ &=(E[Y \mid X]-g(X))(E[Y \mid X]-E[Y \mid X ]) \\ &=0 \end{aligné}

ce qui donne l'inégalité requise

\ E\left[(Yg(X))^{2}\right] \geq E\left[(YE[Y \mid X])^{2}

a

Exemples de prédiction

1. On observe que la taille d'une personne est de six pieds, quelle serait la prédiction de la taille de son fils après avoir grandi si la taille du fils qui est maintenant de x pouces est normalement distribuée avec une moyenne x+1 et une variance 4.

Solution : soit X la variable aléatoire désignant la taille de la personne et Y la variable aléatoire de la taille du fils, alors la variable aléatoire Y est

Y=X+e+1

ici e représente la variable aléatoire normale indépendante de la variable aléatoire X de moyenne zéro et de variance quatre.

donc la prédiction pour la taille des fils est

E[Y \mid X=72]= E[X+1+e \mid X=72] \\ = 73+E[e \mid X=72] \\=73+E(e) \quad by \ quad indépendance \\=73

donc la hauteur des fils sera de 73 pouces après la croissance.

2. Considérons un exemple d'envoi de signaux à partir de l'emplacement A et de l'emplacement B, si à partir de l'emplacement A une valeur de signal s est envoyée qui à l'emplacement B reçue par une distribution normale avec une moyenne s et une variance 1 tandis que si le signal S envoyé à A est normalement distribué avec la moyenne \mu et la variance \sigma^2, comment pouvons-nous prédire que la valeur du signal R envoyé depuis l'emplacement A sera reçue est r à l'emplacement B ?

Solution: Les valeurs de signal S et R désignent ici les variables aléatoires distribuées normalement, nous trouvons d'abord la fonction de densité conditionnelle S étant donné R comme

\ \begin{aligned} f_{S \mid R}(s \mid r)&=\frac{f_{S, R}(s, r)}{f_{R}(r)} \\ &=\ frac{f_{S}(s) f_{R \mid S}(r \mid s)}{f_{R}(r)} \\ &=K e^{-(s-\mu)^{2 } / 2 \sigma^{2}} e^{-(rs)^{2} / 2} \end{aligned}

ce K est indépendant de S, maintenant

\ \begin{aligned} \frac{(s-\mu)^{2}}{2 \sigma^{2}}+\frac{(r-s)^{2}}{2}&=s^{2}\left(\frac{1}{2 \sigma^{2}}+\frac{1}{2}\right)-\left(\frac{\mu}{\sigma^{2}}+r\right) s+C_{1}\\ &=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left[s^{2}-2\left(\frac{\mu+r \sigma^{2}}{1+\sigma^{2}}\right) s\right]+C_{1} \\ &=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left(s-\frac{\left(\mu+r \sigma^{2}\right)}{1+\sigma^{2}}\right)^{2}+C_{2} \end{aligned}

ici aussi C1 et C2 sont indépendants de S, donc la valeur de la fonction de densité conditionnelle est

\ f_S \mid R(s \mid r)=C e^{ \left\{\frac{-\left[s-\frac{\left(\mu+r \sigma^{2}\right)}{ 1+\sigma^{2}}\right]^{2}}{2\left(\frac{\sigma^{2}}{1+\sigma^{2}}\right)}\right\} }}

C est également indépendant de s, donc le signal envoyé de l'emplacement A en tant que R et reçu à l'emplacement B en tant que r est normal avec la moyenne et la variance

\begin{array}{l}E[S \mid R=r]=\frac{\mu+r \sigma^{2}}{1+\sigma^{2}} \\ \operatorname{Var}( S \mid R=r)=\frac{\sigma^{2}}{1+\sigma^{2}}\end{array}

et l'erreur quadratique moyenne pour cette situation est

E[S \mid R=r]=\frac{1}{1+\sigma^{2}} \mu+\frac{\sigma^{2}}{1+\sigma^{2}} r

Prédicteur linéaire

Chaque fois que nous ne pouvons pas trouver la fonction de densité de probabilité conjointe, même la moyenne, la variance et la corrélation entre deux variables aléatoires sont connues, dans une telle situation, le prédicteur linéaire d'une variable aléatoire par rapport à une autre variable aléatoire est très utile, ce qui peut prédire le minimum , donc pour le prédicteur linéaire de la variable aléatoire Y par rapport à la variable aléatoire X nous prenons a et b pour minimiser

\begin{aligned} E\left[(Y-(a+b X))^{2}\right]=& E\left[Y^{2}-2 a Y-2 b X Y+a^{ 2}+2 ab X+b^{2} X^{2}\right] \\ =& E\left[Y^{2}\right]-2 a E[Y]-2 b E[XY] +a^{2} +2 ab E[X]+b^{2} E\left[X^{2}\right] \end{aligned}

Dérivons maintenant partiellement par rapport à a et b nous obtiendrons

\begin{aligned} \frac{\partial}{\partial a} E\left[(Yab X)^{2}\right]&=-2 E[Y]+2 a+2 b E[X] \ \ \frac{\partial}{\partial b} E\left[(Yab X)^{2}\right]&=-2 E[XY]+2 a E[X]+2 b E\left[X ^{2}\right] \\ \end{aligned}

en résolvant ces deux équations pour a et b, nous obtiendrons

\begin{aligned} b&=\frac{E[XY]-E[X] E[Y]}{E\left[X^{2}\right]-(E[X])^{2}}= \frac{\operatorname{Cov}(X, Y)}{\sigma_{x}^{2}}=\rho \frac{\sigma_{y}}{\sigma_{x}} \\ a&=E[ Y]-b E[X]=E[Y]-\frac{\rho \sigma_{y} E[X]}{\sigma_{x}} \end{aligned}

minimisant ainsi cette attente donne le prédicteur linéaire comme

\mu_{y}+\frac{\rho \sigma_{y}}{\sigma_{x}}\left(X-\mu_{x}\right)

où les moyennes sont les moyennes respectives des variables aléatoires X et Y, l'erreur pour le prédicteur linéaire sera obtenue avec l'espérance de

\begin{array}{l} E\left[\left(Y-\mu_{y}-\rho \frac{\sigma_{y}}{\sigma_{x}}\left(X-\mu_{x }\right)\right)^{2}\right] \\ \quad=E\left[\left(Y-\mu_{y}\right)^{2}\right]+\rho^{2} \frac{\sigma_{y}^{2}}{\sigma_{x}^{2}} E\left[\left(X-\mu_{x}\right)^{2}\right]-2 \rho \frac{\sigma_{y}}{\sigma_{x}} E\left[\left(Y-\mu_{y}\right)\left(X-\mu_{x}\right)\right ] \\ \quad=\sigma_{y}^{2}+\rho^{2} \sigma_{y}^{2}-2 \rho^{2} \sigma_{y}^{2} \\ \quad=\sigma_{y}^{2}\left(1-\rho^{2}\right) \end{array}

variance conditionnelle
variance conditionnelle : erreur de prédiction

Cette erreur sera plus proche de zéro si la corrélation est parfaitement positive ou parfaitement négative si le coefficient de corrélation est soit +1 soit -1.

Conclusion

La variance conditionnelle pour la variable aléatoire discrète et continue avec différents exemples a été discutée, l'une des applications importantes de l'espérance conditionnelle dans la prédiction est également expliquée avec des exemples appropriés et avec le meilleur prédicteur linéaire, si vous avez besoin de lectures supplémentaires, consultez les liens ci-dessous

Pour plus d'articles sur les mathématiques, veuillez consulter notre Page de mathématiques

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda