Espérance mathématique et variable aléatoire | Ses 5 propriétés importantes

Espérance mathématique et variable aléatoire    

     L'espérance mathématique joue un rôle très important dans la théorie des probabilités, la définition de base et les propriétés de base de l'espérance mathématique dont nous avons déjà discuté dans certains articles précédents, maintenant après avoir discuté des différentes distributions et types de distributions, dans l'article suivant, nous nous familiariserons avec plus propriétés avancées de l'espérance mathématique.

Espérance de la somme des variables aléatoires | Espérance de fonction des variables aléatoires | Espérance de distribution de probabilité conjointe

     Nous savons que l'espérance mathématique d'une variable aléatoire de nature discrète est

E[X]=\somme_{x} xp(x)

et pour le continu est

E[X]=\int_{-\infty}^{\infty} xf(x)dx

maintenant pour les variables aléatoires X et Y si discrètes alors avec la fonction de masse de probabilité conjointe p(x,y)

l'espérance de la fonction des variables aléatoires X et Y sera

E\gauche [ g(X,Y) \right ]=\sum_{y}\sum_{x}g(x,y)p(x,y)

et si elle est continue, alors avec la fonction de densité de probabilité conjointe f(x, y), l'espérance de la fonction des variables aléatoires X et Y sera

E\gauche [ g(X,Y) \right ]=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} g(x,y)f(x,y) dxdy

si g est l'addition de ces deux variables aléatoires sous forme continue le

E\left [ X +Y \right ]=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} (x + y)f(x,y) dxdy

=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} xf(x,y) dydx + \int_{-\infty}^{\infty} \int_{-\ infty}^{\infty} yf(x,y) dxdy

=\int_{-\infty}^{\infty} x f_{X}(x) dx + \int_{-\infty}^{\infty} yf_{Y}(y) dy

=E[X] + E[Y]

et si pour les variables aléatoires X et Y on a

X \geq Y

alors l'attente aussi

E[X] \geq E[Y]

Exemple

Un hôpital Covid-19 est uniformément réparti sur la route de la longueur L à un point X, un véhicule transportant de l'oxygène pour les patients est à un emplacement Y qui est également uniformément réparti sur la route, Trouver la distance attendue entre l'hôpital Covid-19 et véhicule de transport d'oxygène s'ils sont indépendants.

Solution:

Pour trouver la distance attendue entre X et Y, nous devons calculer E { | XY | }

Maintenant, la fonction de densité conjointe de X et Y sera

f(x,y)=\frac{1}{L^{2}} , \ \ 0 < x < L, \ \ 0 < y < L

depuis

E\gauche [ g(X,Y) \right ] =\int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x,y)f(x,y) dxdy

en suivant ceci nous avons

E\gauche [ \gauche | X -Y \right | \right ]=\frac{1}{L^{2}} \int_{0}^{L} \int_{0}^{L} \left | xy \droit | dy dx

maintenant la valeur de l'intégrale sera

\int_{0}^{L} \left | xy \droit | dy =\int_{0}^{x} (xy)dy +\int_{x}^{L} (yx)dy

=\frac{x^{2}}{2} + \frac{L^{2}}{2} -\frac{x^{2}}{2} -x(Lx)

= \frac{L^{2}}{2} +x^{2} -xL

Ainsi, la distance attendue entre ces deux points sera

E \gauche [ \gauche | X -Y \right | \right ] =\frac{1}{L^{2}}\int_{0}^{L}\left ( \frac{L^{2}}{2} +x^{2} -xL \right )dx =\frac{L}{3}

Espérance de la moyenne de l'échantillon

  En tant que moyenne d'échantillon de la séquence de variables aléatoires X1X2, ………, Xn avec la fonction de distribution F et la valeur attendue de chacun comme est

\overline{X} =\sum_{i=1}^{n}\frac{X_{i}}{n}

donc l'espérance de cette moyenne d'échantillon sera

E \left [ \overline{X} \right ]=E \left [ \sum_{i=1}^{n}\frac{X_{i}}{n} \right ]

=\frac{1}{n} E \left [ \sum_{i=1}^{n} X_{i} \right ]

=\frac{1}{n} \sum_{i=1}^{n} E [X_{i}]

=\mu \ \ depuis \ \ E [X_{i}] \equiv \mu

qui montre que la valeur attendue de la moyenne de l'échantillon est également .

L'inégalité de Boole

                L'inégalité de Boole peut être obtenue à l'aide de propriétés d'espérances, supposons la variable aléatoire X définie comme

X=\somme_{i=1}^{n} X_{i}

X_{i}= \begin{cas} 1 \ \ si \ \ A_{i} \ \ se produit \\ 0 \ \ \ \ sinon \end{cas}

Voici uni 's sont les événements aléatoires, cela signifie que la variable aléatoire X représente l'occurrence du nombre d'événements Ai et une autre variable aléatoire Y comme

Y= \begin{cas} 1 \ \ if \ \ X\geq 1 \ \ \\ 0 \ \ \ sinon \end{cas}

clairement

X\geq Y

Et il en est de même

E[X] \geq E[Y]

maintenant, si nous prenons la valeur des variables aléatoires X et Y, ces attentes seront

E[X] = \sum_{i=1}^{n} E\left [ X_{i} \right ] =\sum_{i=1}^{n} P(A_{i})

ET

E[Y] = P \left ( \ \ at \ \ moins \ \ un \ \ de \ \ le \ \ A_{i} \ \ se produit \right )=P\left ( \bigcup_{i=1}^{ n} A_{i} \droit )

en substituant ces attentes dans l'inégalité ci-dessus, nous obtiendrons l'inégalité de Boole comme

P\gauche ( \bigcup_{i=1}^{n} A_{i} \right ) \leq \sum_{i=1}^{n} P\gauche ( A_{i} \right )

Espérance de la variable aléatoire binomiale | Moyenne de la variable aléatoire binomiale

  Nous savons que le variable aléatoire binomiale est la variable aléatoire qui montre le nombre de succès dans n essais indépendants avec une probabilité de succès comme p et un échec comme q=1-p, donc si

X=X1 + X2+ …….+ Xn

X_{i}= \begin{cas} 1 \ \ if \ \ le \ \ ith \ \ trail \ \ is \ \ a \ \ success \\ 0 \ \ if \ \ the \ \ ith \ \ trail \ \ is \ \ a \ \ échec \end{cas}

ici ces Xi sont les Bernoulli et l'attente sera

E(X_{i}) =1(p) +0(1-p)=p

donc l'espérance de X sera

E[X] =E[X_{1}] + E[X_{2}] + \cdot \cdot \cdot + E[X_{n}]

Espérance de variable aléatoire binomiale négative | Moyenne de la variable aléatoire binomiale négative

  Soit une variable aléatoire X qui représente le nombre d'essais nécessaires pour collecter r succès, alors une telle variable aléatoire est connue sous le nom de variable aléatoire binomiale négative et peut être exprimée sous la forme

X =X_{1} + X_{2} + \cdot \cdot \cdot + X_{r}

ici chaque Xi désigne le nombre d'essais requis après le (i-1) er succès pour obtenir le total des i succès.

Puisque chacun de ces Xi représentent la variable aléatoire géométrique et nous savons que l'espérance pour la variable aléatoire géométrique est

E[X_{i}] =\frac{1}{p}

so

E[X] =E[X_{1}] + \cdot \cdot \cdot \cdot \cdot + E[X_{r}]=\frac{r}{p}

qui est l'espérance de la variable aléatoire binomiale négative.

Espérance de la variable aléatoire hypergéométrique | Moyenne de la variable aléatoire hypergéométrique

L'espérance ou la moyenne de la variable aléatoire hypergéométrique que nous obtiendrons à l'aide d'un exemple simple de la vie réelle, si n nombre de livres sont choisis au hasard dans une étagère contenant N livres dont m sont de mathématiques, alors pour trouver le nombre attendu de livres de mathématiques laissez X dénoter le nombre de livres de mathématiques sélectionnés alors nous pouvons écrire X comme

X =X_{1} + X_{2} + \cdot \cdot \cdot + X_{m}

X_{i}= \begin{cases} 1, \ \ if \ \ ith \ \ mathématiques \ \ book \ \ est \ \ sélectionné \\ 0, \ \ \ \ sinon \end{cases}

so

E[X_{i}] = P\gauche \{ X_{i}=1 \droit.\gauche. \droite \}

=\frac{\binom{1}{1}\binom{N-1}{n-1}}{\binom{N}{n}}

=\frac{n}{N}

qui donne

E[X]=E[X_{1}] + \cdot \cdot \cdot \cdot +E[X_{m}]=\frac{mn}{N}

qui est la moyenne d'une telle variable aléatoire hypergéométrique.

Nombre de matchs attendu

   C'est un problème très populaire lié à l'attente, supposons que dans une pièce il y ait un nombre N de personnes qui jettent leurs chapeaux au milieu de la pièce et que tous les chapeaux soient mélangés après que chaque personne choisisse au hasard un chapeau puis le nombre de personnes attendu qui choisissent leur propre chapeau, nous pouvons obtenir en laissant X être le nombre de correspondances donc

X=X_{1}+ X_{2} + \cdot \cdot \cdot \cdot +X_{N}

X_{i}= \begin{cases} 1, \ \ if \ \ la \ \ ième \ \ personne \ \ sélectionne \ \ son \ \ propre \ \ chapeau \\ 0, \ \ \ \ sinon \end{cases}

étant donné que chaque personne a la même possibilité de choisir l'un des chapeaux parmi N chapeaux, alors

E[X_{i}]=P\gauche { X_{i}=1 \droit.\gauche. \right }=\frac{1}{N}

so

E[X]=E[X_{1}] + \cdot \cdot \cdot \cdot \cdot + E[X_{n}] = \left (\frac{1}{N} \right ) N =1

ce qui signifie qu'une personne en moyenne choisit son propre chapeau.

La probabilité d'une union d'événements

     Obtenons la probabilité de l'union des événements à l'aide de l'espérance donc pour les événements Ai

X_{i}= \begin{cas} 1, \ \ si \ \ A_{i} \ \ se produit \\ 0, \ \ sinon \end{cas}

avec ça on prend

1- \prod_{i=1}^{n} (1-X_{i})= \begin{cases} 1, \ \ si \ \ A_{i} \ \ se produit \\ 0, \ \ sinon \end {cas}

donc l'attente de ce sera

E\gauche [ 1- \prod_{i=1}^{n} (1-X_{i}) \right ]= P\gauche ( \bigcup_{i=1}^{n} A_{i} \right )

et l'expansion en utilisant la propriété d'attente comme

P\gauche ( \bigcup_{i=1}^{n} A_{i} \right ) =E\gauche [ \sum_{i=1}^{n} X_{i} - \sum \sum_{i< j} X_{i}X_{j} + \sum \sum_{i< j< k}\sum X_{i}X_{j}X_{k} - \cdot \cdot \cdot \cdot \cdot \cdot \ cdot + (-)^{n+1}X_{1} \cdot \cdot \cdot X_{n} \right ]

depuis que nous avons

Attente mathématique
Attente mathématique : la probabilité d'une union d'événements

ET

X_{i_{1}} X_{i_{2}} \cdot \cdot \cdot \cdot X_{i_{k}}= \begin{cases} 1, \ \ if \ \ A_{i_{1}} A_ {i_{2}} \cdot \cdot \cdot A_{i_{k}} \ \ se produit \\ 0, \ \ sinon \end{cases}

so

E \left [ X_{i_{1}} X_{i_{2}} \cdot \cdot \cdot \cdot X_{i_{k}} \right ]= P\left ( A_{i_{1}} A_{ i_{2}} \cdot \cdot \cdot A_{i_{k}} \right )

cela implique la probabilité d'union comme

P\gauche ( \cup A_{i} \right )=\sum_{i}P(A_{i}) -\sum \sum_{i< j}P \gauche ( A_{i}A_{j} \right ) + \sum \sum_{i< j< k}\sum P\left ( A_{i}A_{j}A_{k} \right ) - \cdot \cdot \cdot + (-1)^{n+ 1} P\gauche ( A_{1} \cdot \cdot \cdot A_{n} \right )

Limites de l'espérance en utilisant la méthode probabiliste

    Supposons S un ensemble fini et f est la fonction sur les éléments de S et

m=\underset{s \in \mathfrak{s} }{max} f(s)

ici, nous pouvons obtenir la borne inférieure pour ce m par espérance de f(s) où « s » est n'importe quel élément aléatoire de S dont l'espérance nous pouvons calculer ainsi

m \geq f(S)

m \geq E\gauche [ f(S) \droit ]

ici, nous obtenons l'espérance comme limite inférieure pour la valeur maximale

Identité Maximum-Minimum

 Maximum L'identité minimale est le maximum de l'ensemble de nombres aux minimums des sous-ensembles de ces nombres, c'est-à-dire pour n'importe quel nombre xi

\underset{i}{max} \ \ x_{i}=\sum_{i}x_{i} -\sum_{i< j} min(x_{i},x_{j}) + \sum_{i< j< k} min(x_{i},x_{j},x_{k}) + \cdot \cdot \cdot + (-1)^{n+1} min\gauche ( x_{1}, \cdot \cdot \cdot ,x_{n} \right )

Pour montrer cela, restreignons le xi dans l'intervalle [0,1], supposons une variable aléatoire uniforme U sur l'intervalle (0,1) et les événements Ai comme la variable uniforme U est inférieure à xi qui est

A_{i}=\gauche { U< x_{i} \droit.\gauche. \droite }

puisqu'au moins un des événements ci-dessus se produit lorsque U est inférieur à un la valeur de xi

U_{i}A_{i}=\left { U< \underset{i}{max} \ \ x_{i} \right.\left. \droite }

ET

P\gauche ( U_{i}A_{i} \right )= P\gauche ( U< \underset{i}{max} x_{i} \right ) =\underset{i}{max} x_{i}

On sait clairement

<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U

P(A_{i}) =P\gauche ( U < x_{i} \droit ) =x_{i}

et tous les événements se produiront si U est inférieur à toutes les variables et

A_{i_{1}} \cdot \cdot \cdot A_{i_{r}} =\gauche ( U< \underset{j=1 \cdot \cdot \cdot r}{min} x_{i_{j}} \droite )

la probabilité donne

P\gauche ( A_{i_{1}} \cdot \cdot \cdot A_{i_{r}} \right )=P \gauche ( U< \underset{j=1 \cdot \cdot \cdot r}{min } x_{i_{j}} \right ) = \underset{j=1 \cdot \cdot \cdot r}{min} x_{i_{j}}

on a le résultat de la probabilité d'union comme

P\gauche ( U_{i} A_{i}\right ) \sum_{i} P\gauche ( A_{i} \right ) -\sum_{i< j} P(A_{i}A_{j}) +\sum_{i< j< k} P(A_{i}A_{j}A_{k}) + \cdot \cdot \cdot \cdot + (-1)^{n+1} P(A_{1 } \cdot \cdot \cdot \cdot A_{n})

suivant cette formule d'exclusion d'inclusion pour la probabilité

\underset{i}{max} (x_{i} +b) =\sum_{i} (x_{i} +b) -\sum_{i< j} min (x_{i} +b, x_{j } +b) + \cdot \cdot \cdot \cdot + (-1)^{n+1} min (x_{1} +b, \cdot \cdot \cdot , x_{n} +b)

Pour conférer

M =\sum_{i} x_{i} -\sum_{i< j} min (x_{i},x_{j}) + \cdot \cdot \cdot \cdot + (-1)^{n+1 } min (x_{1}, \cdot \cdot \cdot \cdot x_{n})

cela donne

\underset{i}{max} \ \ x_{i} + b= M+ b\left ( n-\binom{n}{2} + \cdot \cdot \cdot + (-1)^{n+1} \binom{n}{n} \right )

depuis

0= (1-n)^{n}=1-n +\binom{n}{2} + \cdot \cdot \cdot + (-1)^{n+1} \binom{n}{n}

ce qui signifie

\underset{i}{max} \ \ x_{i} =M

  • donc nous pouvons l'écrire comme

\underset{i}{max} \ \ x_{i} =\sum_{i} x_{i} - \sum_{i< j} min (x_{i}, x_{j}) \sum_{i< j < k} min (x_{i}, x_{j}, x_{k}) + \cdot \cdot \cdot + (-1)^{n+1} min (x_{1}, \cdot \cdot \ cdot, x_{n})

en prenant l'espérance, nous pouvons trouver les valeurs attendues des minimums maximum et partiels comme

E \left [ \underset{i}{max} \ \ X_{i} \right ] =\sum_{i} E\left [ X_{i} \right ] - \sum_{i< j} E\left [ min (X_{i}, X_{j}) \right ] + \cdot \cdot \cdot + (-1)^{n+1} E\left [ min\left ( X_{1} , \cdot \cdot \cdot \cdot \cdot , X_{n} \right ) \right ])

Conclusion:

L'attente en termes de distribution et de corrélation d'attente avec certains des concepts de la théorie des probabilités était au centre de cet article qui montre l'utilisation de l'attente comme outil pour obtenir les valeurs attendues de différents types de variables aléatoires, si vous avez besoin d'une lecture plus approfondie, allez à travers les livres ci-dessous.

Pour plus d'articles sur les mathématiques, veuillez consulter notre Page de mathématiques.

https://en.wikipedia.org/wiki/Expectation

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda