COVARIANCE, VARIANCE DES SOMMES ET LEURS 5 PROPRIÉTÉS IMPORTANTES

COVARIANCE, VARIANCE DES SOMMES ET CORRELATIONS DE VARIABLES ALÉATOIRES

  Les paramètres statistiques des variables aléatoires de nature différente utilisant la définition de l'espérance de variable aléatoire sont faciles à obtenir et à comprendre, dans ce qui suit nous trouverons quelques paramètres à l'aide de l'espérance mathématique de variable aléatoire.

Moments du nombre d'événements qui se produisent

    Jusqu'à présent, nous savons que l'espérance de différentes puissances de variable aléatoire correspond aux moments des variables aléatoires et comment trouver l'espérance de variable aléatoire à partir des événements si le nombre d'événements s'est déjà produit, nous nous intéressons maintenant à l'espérance si paire de nombre d'événements s'est déjà produit, maintenant si X représente le nombre d'événement s'est produit alors pour les événements A1, Un2, ….,UNEn définir la variable indicatrice Ii as

I_{i}=\begin{cases} 1, &\text{if } A_{i} \ \ se produit \\ 0, &\text{autrement} \end{cases}

l'espérance de X au sens discret sera

E[X]= E\left [ \sum_{i=1}^{n} I_{i} \right ] =\sum_{i=1}^{n} E[I_{i}] =\sum_{ i=1}^{n} P\gauche ( A_{i} \droit )

car la variable aléatoire X est

E=\somme_{i=1}^{n} E I_{i}

maintenant pour trouver l'attente si le nombre de paires d'événements s'est déjà produit, nous devons utiliser la combinaison comme

\binom{X}{2} = \sum_{i< j} I_{i}J_{i}

cela donne une attente comme

E\left [ \binom{X}{2} \right ]=\sum_{i< j} E[I_{i}I_{j}] = \sum_{i< j} P(A_{i}A_{ j})

E\gauche [ \frac{X(X-1)}{2} \right ] = \sum_{i< j}^{} P(A_{i}A_{j})

E[X^{2}] -E[X] =2 \somme_{i< j}^{} P(A_{i}A_{j})

à partir de là, nous obtenons l'espérance de x carré et la valeur de la variance également par

Var(X)=E[X^{2}] -(E[X])^{2}

En utilisant cette discussion, nous nous concentrons sur différents types de variables aléatoires pour trouver de tels moments.

Moments de variables aléatoires binomiales

   Si p est la probabilité de succès de n essais indépendants alors notons Ai pour le procès j'ai autant de succès donc

Lorsque \ \ i\neq j, P(A_{i}A_{j})=p^{2}

E\left [ \binom{X}{2} \right ]= \sum_{i< j}^{} p^{2} = \binom{n}{2}p^{2}

E[X(X-1)] =n(n-1)p^{2}

E[X^{2}] -E[X] =n(n-1)p^{2}

et donc la variance de la variable aléatoire binomiale sera

Var(X)=E[X^{2}] -(E[X])^{2}=n(n-1)p^{2} +np - (np)^{2}=np(1 -p)

car

E[X] =\somme_{i=1}^{n} P(A_{i}) =np

si on généralise pour k événements

P(A_{i_{1}}A_{i_{2}} \cdot \cdot \cdot A_{i_{k}})=p^{k}

E[X(X-1) \cdot \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot\cdot\cdot (n-k+1)p^{k}

cette espérance que nous pouvons obtenir successivement pour la valeur de k supérieure à 3 trouvons pour 3

E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}

E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}

E[X^{3}] =3E[X^{2}] -2E[X] + n(n-1)(n-2)p^{3}

=3n(n-1)p^{2} +np + n(n-1)(n-2)p^{3}

en utilisant cette itération, nous pouvons obtenir

E[X^{k}], k\geq 3,

Moments de variables aléatoires hypergéométriques

  Les moments de cette variable aléatoire que nous comprendrons à l'aide d'un exemple supposons que n plumes sont choisies au hasard dans une boîte contenant N plumes dont m sont bleus, Soit Ai dénotent les événements que i-ème stylo est bleu, maintenant X est le nombre de stylo bleu sélectionné est égal au nombre d'événements A1,A2,…..,UNEn qui se produisent parce que la ième plume sélectionnée est également susceptible de n'importe laquelle des N plumes dont m sont bleus

P(A_{i}) =\frac{m}{N} \ \ , E[X]=\sum_{i=1}^{n}P(A_{i})

et donc

P(A_{i}A_{j}) = P(A_{i}) P(A_{j}/A_{i}) =\frac{m}{N} \frac{m-1}{N- 1}

E\gauche [ \binom{X}{2} \right ] =\sum_{i< j}^{}\frac{m(m-1)}{n(n-1)} =\binom{n} {2}\frac{m(m-1)}{n(n-1)}

X[X(X-1)] =n(n-1)\frac{m(m-1)}{N(N-1)}

cela donne

E[X^{2}] =n(n-1)\frac{m(m-1)}{N(N-1)} + E[X]

donc la variance de la variable aléatoire hypergéométrique sera

Var (X) = E [X ^ {2}] - (E [X]) ^ {2}

= n(n-1)\frac{m(m-1)}{N(N-1)} +\frac{nm}{N} -\frac{n^{2}m^{2}}{ N^{2}}

=\frac{nm}{N} \gauche [ \frac{(n-1)(m-1)}{N-1} +1 + -\frac{mn}{N} \right ]

de la même manière pour les moments supérieurs

P(A_{i_{1}} A_{i_{2}} \cdot \cdot \cdot \cdot A_{i_{k}}) =\frac{m(m-1)\cdot \cdot \cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}

E\gauche [ \binom{X}{k} \right ] = \binom{n}{k} \frac{m(m-1)\cdot \cdot \cdot \cdot (m-k+1)}{ N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}

d'où

E[X(X-1) \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot \cdot \cdot \cdot (n-k+1) \frac{m(m -1)\cdot \cdot \cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}

Moments des variables aléatoires hypergéométriques négatives

  Prenons l'exemple d'un emballage contenant n+m vaccins dont n sont spéciaux et m sont ordinaires, ces vaccins retirés un par un, chaque nouveau retrait étant également susceptible d'être l'un des vaccins restant dans l'emballage. Maintenant, laissez la variable aléatoire Y désigner le nombre de vaccins qui doivent être retirés jusqu'à ce qu'un total de r vaccins spéciaux aient été retirés, ce qui est une distribution hypergéométrique négative, c'est en quelque sorte similaire avec binomial négatif à binomial quant à la distribution hypergéométrique. pour trouver le probabilité fonction de masse si le kième tirage donne le vaccin spécial après le tirage k-1 donne le vaccin spécial r-1 et kr ordinaire

P(X=k)=\frac{\binom{n}{r-1}\binom{m}{kr}}{\binom{n+m}{k-1}} \frac{n-r+ 1}{n+m-k+1}

maintenant la variable aléatoire Y

Y=r+X

pour les événements Ai

E[Y]=r+E[X] =r + \sum_{i=1}^{m} P(A_{i})

E[Y]=r+ m\frac{r}{n+1}=\frac{r(n+m+1)}{n+1}

as

P(A_{i})=\frac{r}{n+1}

donc pour trouver la variance de Y, nous devons connaître la variance de X donc

E(X(X-1))=2\somme_{i< j}^{} P(A_{i}A_{j})

\sum_{i< j}^{} P(A_{i}A_{j}) = \frac{\binom{2}{2}\binom{n}{r-1}}{\binom{n+ 2}{r+1}} =\frac{r(r+1)}{(n+1)(n+2)}

E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}

E[X^{2}] = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} + E[X]

Var(Y)=Var(X) = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} m \frac{r}{n+1} - \left ( m\frac{r}{n+1} \right )^{2}

d'où

Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}

COVARIANCE             

La relation entre deux variables aléatoires peut être représentée par le paramètre statistique covariance, avant la définition de la covariance de deux variables aléatoires X et Y rappelons que l'espérance de deux fonctions g et h des variables aléatoires X et Y donne respectivement

E[g(X)h(Y)]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f(x,y) dx dy

= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f_{X}(x) f_{Y}(x) dx dy

= \int_{-\infty}^{\infty} h(y) f_{Y}(x) dy \int_{-\infty}^{\infty} g(x)f_{X}(x) dx

=E[h(Y)] E[g(X)]

E[g(X)h(Y)]=E[h(Y)] E[g(X)]

en utilisant cette relation d'espérance, nous pouvons définir la covariance comme

   « La covariance entre la variable aléatoire X et la variable aléatoire Y notée cov(X,Y) est définie comme

Cov(X,Y)=E[(XE[X])(YE[Y])]

en utilisant la définition de l'attente et en développant, nous obtenons

Cov(X,Y)=E[XY-E[X]Y -XE[Y] +E[Y]E[X] ]

=E[XY] - E[X]E[Y] - E[X]E[Y] +E[X]E[Y]

=E[XY] - E[X]E[Y]

il est clair que si les variables aléatoires X et Y sont indépendantes alors

Cov(X,Y)=0

mais l'inverse n'est pas vrai par exemple si

P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}

et définir la variable aléatoire Y comme

Y= \begin{cases} 0 &\text{if } X \neq 0 \\ 1 &\text{if } X =0 \end{cases}

so

Cov(X,Y)=E[XY] -E[X]E[Y]=0

ici clairement X et Y ne sont pas indépendants mais la covariance est nulle.

Propriétés de covariance

  La covariance entre les variables aléatoires X et Y a certaines propriétés comme suit

\ \ (i) \ \ Cov(X,Y)=Cov(Y,X)

\ \ (ii) \ \ Cov(X,X)=Var(X)

\ \ (iii) \ \ Cov(aX, Y)=aCov(X,Y)

\ \ (iv) \ \ Cov\left ( \sum_{i=1}^{n} X_{i} , \sum_{j=1}^{m} Y_{j} \right ) = \sum_{i =1}^{n} \sum_{j=1}^{m} Cov(X_{i}, Y_{j})

en utilisant la définition de la covariance, les trois premières propriétés sont immédiates et la quatrième propriété suit en considérant

E\left [ \sum_{i=1}^{n} X_{i} \right ] =\sum_{i=1}^{n} \mu {i} , \ \ E\left [ \sum {j =1}^{m} Y_{j} \right ] =\sum_{j=1}^{m} v_{j}

maintenant par définition

covariance

Variation des sommes

Le résultat important de ces propriétés est

var\gauche ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})

as

var\left ( \sum_{i=1}^{n} X_{i} \right ) =Cov\left ( \sum_{i=1}^{n} X_{i} \sum_{j=1}^ {n} X_{j} \right )

= \sum_{i=1}^{n} \sum_{j=1}^{n}X_{i} X_{j}

= \sum_{i=1}^{n} Var(X_{i}) \sum \sum_{i\neq j}^{} Cov(X_{i},X_{j})

Var\gauche ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i}) +2 \sum \sum_{i< j}^{} Cov(X_{i},X_{j})

Si Xi 's sont indépendants par paires alors

Var\gauche ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i})

Exemple : Variance d'une variable aléatoire binomiale

  Si X est la variable aléatoire

X=X_{1} + \cdot \cdot \cdot \cdot + X_{n}

où Xi sont les variables aléatoires indépendantes de Bernoulli telles que

X_{i}=\begin{cases} 1 &\text{si le i-th trail est réussi } \\ 0 &\text{sinon } \end{cases}

 puis trouver la variance d'une variable aléatoire binomiale X avec les paramètres n et p.

Solution:

depuis

Var\gauche ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})

Var(X) =Var(X_{1}) + \cdot \cdot \cdot \cdot +Var(X_{n})

donc pour une seule variable nous avons

Var(X_{i}) =E[X_{i}^{2}] -(E[X_{i}])^{2}

=E[X_{i}] -(E[X_{i}])^{2} \ \ Depuis \ \ X_{i}^{2} =X_{i}

=pp^{2}

donc l'écart est

Var(X)=np(1-p)

Exemple

  Pour les variables aléatoires indépendantes Xi avec les moyennes et la variance respectives et une nouvelle variable aléatoire avec écart comme

S^{2}=\sum_{i=1}^{n}\frac{(X_{i} -\overline{X})^{2}}{n-1}

puis calcule

\ \ (a) \ \ Var(\overline{X}) \ \ et \ \ (b) \ \ E[S^{2}]

Solution:

En utilisant la propriété et la définition ci-dessus, nous avons

\ \ (a) \ \ Var(\overline{X}) =\left ( \frac{1}{n} \right )^{2} Var\left ( \sum_{i=1}^{n} X_ {j'ai raison )

=\left ( \frac{1}{n} \right )^{2} \sum_{i=1}^{n} Var(X_{i}) \ \ par \ \ indépendance

=\frac{\sigma ^{2}}{n}

maintenant pour la variable aléatoire S

COVARIANCE

prendre l'attente

(n-1)E[S^{2}] =\sum_{i=1}^{n} E[(X_{i} -\mu)^{2}] -nE[(\overline{X} -\mu )^{2}]

Mise en situation :

Trouvez la covariance des fonctions indicatrices pour les événements A et B.

Solution:

pour les événements A et B les fonctions indicatrices sont

I_{A}=\begin{cas} 1 &\text{si A se produit} \\ 0 &\text{sinon } \end{cas}

I_{B}=\begin{cases} 1 &\text{si B se produit} \\ 0 &\text{sinon } \end{cases}

donc l'attente de ceux-ci sont

E[I_{A}] =P(A)

E[I_{B}] =P(B)

E[I_{A}I_{B}] =P(AB)

donc la covariance est

Cov(I_{A},I_{B}) = P(AB) - P(A)P(B)

= P(B)[P(A/B) - P(A)]

Mise en situation :

     Montre CA

Cov(X_{i}- \overline{X}, \overline{X}) =0

où Xi sont des variables aléatoires indépendantes avec variance.

Solution:

La covariance utilisant les propriétés et la définition sera

Cov(X_{i}- \overline{X}, \overline{X}) = Cov(X_{i}, \overline{X}) - Cov(\overline{X}, \overline{X})

Cov\gauche ( X_{i}, \frac{1}{n} \sum_{j=1}^{n} X_{j} \right ) - Var(\overline{X})

= \frac{1}{n} \sum_{j=1}^{n} Cov(X_{i},X_{j}) - \frac{\sigma ^{2}}{n}

= \frac{\sigma ^{2}}{n} - \frac{\sigma ^{2}}{n} =0

Mise en situation :

  Calculer la moyenne et la variance de la variable aléatoire S qui est la somme de n valeurs échantillonnées si un ensemble de N personnes dont chacune a une opinion sur un certain sujet qui est mesurée par un nombre réel v qui représente la « force de sentiment » de la personne sur le sujet. Laisser  représenter la force du sentiment de la personne  qui est inconnue, pour collecter des informations un échantillon de n parmi N est pris au hasard, ces n personnes sont interrogées et leur ressenti est obtenu pour calculer vi

Solution

définissons la fonction indicatrice comme

I_{i}=\begin{cases} 1 &\text{si la personne i est dans l'échantillon aléatoire } \\ 0 &\text{sinon } \end{cases}

nous pouvons donc exprimer S comme

S = \somme_{i=1}^{N} v_{i}I_{i}

et ses attentes en tant que

E[S] = \sum_{i=1}^{N} v_{i}E[I_{i}]

cela donne la variance comme

Var(S) =\sum_{i=1}^{N} Var(v_{i}I_{i}) +2\sum_{}^{}\sum_{i< j}^{} Cov(v_{ i}I_{i}, v_{j}I_{j})

=\sum_{i=1}^{N} v_{i}^{2} Var(I_{i}) +2\sum_{}^{}\sum_{i< j}^{} v_{i} v_{j} Cov(I_{i}, I_{j})

depuis

E[I_{i}] =\frac{n}{N}

E[I_{i} I_{j}] =\frac{n}{N} \frac{n-1}{N-1}

nous avons

Var (I_{i}) =\frac{n}{N}\left ( 1- \frac{n}{N} \right )

Cov(I_{i}, I_{j}) = \frac{n(n-1)}{N(N-1)} -\gauche ( \frac{n}{N} \right )^{2}

= \frac{-n(N-1)}{N^{2}(N-1)}

E[s] =n\sum_{i=1}^{N}\frac{v_{i}}{N} =n\overline{v}

Var(S)=\frac{n}{N}\frac{Nn}{N} \sum_{i=1}^{N}v_{i}^{2} -\frac{2n(Nn)}{ N^{2}(N-1)} \somme \sum_{i< j}^{} v_{i}v_{j}

nous connaissons l'identité

(v_{1} + \cdot \cdot \cdot + v_{N})^{2} =\sum_{i=1}^{N}v_{i}^{2} +2 \sum \sum_{i < j}^{} v_{i}v_{j}

so

Var(S) =\frac{n(N-1)}{(N-1)} \gauche ( \frac{\sum_{i=1}^{N}v_{i}^{2}}{N } -\overline{v}^{2} \right )

E[S]= n\overline{v}= np \ \ puisque \ \ n\overline{v}=\frac{Np}{N}=p

Var(S)= \frac{n(Nn)}{N-1} \left ( \frac{Np}{N} -p^{2} \right )

= \frac{n(Nn)}{N-1} p(1-p)

donc la moyenne et la variance pour ladite variable aléatoire seront

E\gauche [ \frac{S}{n} \right ] =p

Var\gauche ( \frac{S}{n} \right )=\frac{Nn}{n(N-1)}p(1-p)

Conclusion:

La corrélation entre deux variables aléatoires est définie comme une covariance et en utilisant la covariance, la somme de la variance est obtenue pour différentes variables aléatoires, la covariance et différents moments à l'aide de la définition de l'attente est obtenue, si vous avez besoin de lectures supplémentaires, passez en revue

https://en.wikipedia.org/wiki/Expectation

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et statistiques par ROHATGI et SALEH.

Pour plus d'articles sur les mathématiques, veuillez suivre notre Page de mathématiques

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda