Variable aléatoire géométrique | Sa caractéristique importante

Une variable aléatoire discrète supplémentaire et ses paramètres

    La variable aléatoire discrète avec sa fonction de masse de probabilité combine la distribution de la probabilité et en fonction de la nature de la variable aléatoire discrète, la distribution de probabilité peut avoir des noms différents comme la distribution binomiale, la distribution de Poisson, etc., comme nous l'avons déjà vu les types de discrets variable aléatoire, variable aléatoire binomiale et variable aléatoire de Poisson avec les paramètres statistiques de ces variables aléatoires. La plupart des variables aléatoires sont caractérisées en fonction de la nature de la fonction de masse de probabilité, nous allons maintenant voir un autre type de variables aléatoires discrètes et ses paramètres statistiques.

Variable aléatoire géométrique et sa distribution

      Une variable aléatoire géométrique est la variable aléatoire qui est attribuée pour les essais indépendants effectués jusqu'à l'occurrence du succès après un échec continu, c'est-à-dire si nous effectuons une expérience n fois et obtenons initialement tous les échecs n-1 fois, puis enfin nous obtenons le succès. La fonction de masse de probabilité pour une telle variable aléatoire discrète sera

P (X = n) = (1-p) ^ {n-1} \ fois p, \; \; pour\; n = 1,2,3,4 ……

Dans cette variable aléatoire, la condition nécessaire pour le résultat de l'essai indépendant est l'initiale, tout le résultat doit être un échec avant le succès.

Ainsi, en bref, la variable aléatoire qui suit ci-dessus la fonction de masse de probabilité est connue sous le nom de variable aléatoire géométrique.

On observe facilement que la somme de ces probabilités sera de 1 comme le cas pour la probabilité.

\sum_{n=1}^{\infty}P(X=n)=p\sum_{n=1}^{\infty}( 1-p)^{n-1}=p*\frac{1}{1-(1-p))}=1

Ainsi, la variable aléatoire géométrique avec une telle fonction de masse de probabilité est distribution géométrique.

Attente de la variable aléatoire géométrique

    Comme l'espérance est l'un des paramètres importants de la variable aléatoire, l'espérance de la variable aléatoire géométrique sera 

E [X] = \ frac {1} {p} \ \,

où p est la probabilité de succès.

depuis

E [X] = \ somme_ {n = 1} ^ {\ infty} X * P (X = n)

soit la probabilité d'échec q = 1-p

so

\\ E [X] = \ sum_ {i = 1} ^ {\ infty} i * P (X = n)

\ E [X] = \ sum_ {i = 1} ^ {\ infty} i * q ^ {i-1} p

\ = \ somme_ {i = 1} ^ {\ infty} (i-1 + 1) * q ^ {i-1} p

\=\sum_{i=1}^{\infty}(i-1) *q^{i-1}p+\sum_{i=1}^{\infty}q^{i-1}p

\ = \ somme_ {j = 1} ^ {\ infty} (j) * q ^ {j} p + 1

\ = q \ somme_ {j = 1} ^ {\ infty} (j) * q ^ {j-1} p + 1

\ E [X] = qE [X] +1

\ (1-q) E [X] = 1

\ pE [X] = 1

ainsi nous obtenons

E [X] = \ frac {1} {p} \ \,

Ainsi, la valeur attendue ou la moyenne des informations données, nous pouvons suivre simplement la valeur inverse de la probabilité de succès dans une variable aléatoire géométrique.

Variance et écart type de la variable aléatoire géométrique

De la même manière, nous pouvons obtenir l'autre important paramètre statistique de variance et l'écart type pour la variable aléatoire géométrique et ce serait

var (X) = \ frac {1-p} {p ^ {2}}

et

sd = \ sqrt {\ frac {1-p} {p ^ {2}}}

Pour obtenir ces valeurs, nous utilisons la relation

var (X) = E [X ^ {2}] - {E [X]} ^ {2}

Alors calculons d'abord

E [X ^ {2}]

set \ \ q = 1-p

E [X] = \ somme_ {n = 1} ^ {\ infty} X * P (X = n)

\\ E [X] = \ sum_ {i = 1} ^ {\ infty} i * q ^ {i-1} p

so

\ \ E [X ^ {2}] = \ sum_ {i = 1} ^ {\ infty} i ^ {2} * q ^ {i-1} p

\\E[X^{2}]= \sum_{i=1}^{\infty}(i-1+1)^{2} *q^{i-1}p

\\E[X^{2}]= \sum_{i=1}^{\infty}(i-1)^{2} *q^{i-1}p+\sum_{i=1}^{\infty}2(i-1) *q^{i-1}p+\sum_{i=1}^{\infty}q^{i-1}p

\\ E [X ^ {2}] = \ sum_ {j = 0} ^ {\ infty} (j) ^ {2} * q ^ {j} p + 2 \ sum_ {j = 0} ^ {\ infty } j * q ^ {j} p + 1

\\E[X^{2}]=q \sum_{j=1}^{\infty}(j)^{2} *q^{j-1}p+2q\sum_{j=1}^{\infty}j *q^{j-1}p+1

\\ E [X ^ {2}] = qE [X ^ {2}] + 2qE [X] +1

\\ E [X ^ {2}] - qE [X ^ {2}] = 2qE [X] +1

puisque \ \ E [X] = \ frac {1} {p}, 1-q = p

pE [X ^ {2}] = \ frac {2q} {p} +1

\\ E [X ^ {2}] = \ frac {2q + p} {p ^ {2}} = \ frac {q + q + p} {p ^ {2}} = \ frac {q + 1} {p ^ {2}}

Alors nous écrivons maintenant

Var(X)= \frac{q+1}{p^{2}}-\frac{1}{p^{2}}=\frac{q}{p^{2}}=\frac{1-p}{p^{2}}

ainsi nous avons

var (X) = \ frac {1-p} {p ^ {2}} \ \ et

sd = \ sqrt {\ frac {1-p} {p ^ {2}}}

Variable aléatoire binomiale négative

    Cet aléatoire tombe dans une autre variable aléatoire discrète en raison de la nature de sa fonction de masse de probabilité, de la variable aléatoire binomiale négative et de sa distribution à partir de n essai d'une expérience indépendante r succès doivent être obtenus initialement

    \ [\ [P \ {X = n \} = \ left (\ begin {array} {c} n-1 \\ r-1 \ end {array} \ right) p ^ {r} (1-p) ^ {nr} \ quad n = r, r + 1, \ ldots \\ \ left (\ begin {array} {c} n-1 \\ r-1 \ end {array} \ right) p ^ {r- 1} (1-p) ^ {nr} \] \]

En d'autres termes, une variable aléatoire avec une fonction de masse de probabilité ci-dessus est une variable aléatoire binomiale négative avec des paramètres (r, p), notez que si nous restreignons r = 1 la distribution binomiale négative se transforme en distribution géométrique, nous pouvons spécifiquement vérifier

    \ [\ sum_ {n = r} ^ {\ infty} P \ {X = n \} = \ sum_ {n = r} ^ {\ infty} \ left (\ begin {array} {c} n-1 \ \ r-1 \ end {tableau} \ droit) p ^ {r} (1-p) ^ {nr} = 1 \]

Attente, variance et écart type de la variable aléatoire binomiale négative

L'espérance et la variance de la variable aléatoire binomiale négative seront

E [X] = \ frac {r} {p} \ quad \ operatorname {Var} (X) = \ frac {r (1-p)} {p ^ {2}}

à l'aide de la fonction de masse de probabilité de la variable aléatoire binomiale négative et de la définition de l'espérance, nous pouvons écrire

\\ E \ left [X ^ {k} \ right] = \ sum_ {n = r} ^ {\ infty} n ^ {k} \ left (\ begin {array} {c} n-1 \\ r- 1 \ end {array} \ right) p ^ {r} (1-p) ^ {nr} \\ = \ frac {r} {p} \ sum_ {n = r} ^ {\ infty} n ^ {k -1} \ left (\ begin {array} {c} n \\ r \ end {array} \ right) p ^ {r + 1} (1-p) ^ {nr} \ text {depuis} n \ left (\ begin {array} {c} n-1 \\ r-1 \ end {array} \ right) = r \ left (\ begin {array} {c} n \\ r \ end {array} \ right) \\ = \ frac {r} {p} \ sum_ {m = r + 1} ^ {\ infty} (m-1) ^ {k-1} \ left (\ begin {array} {c} m-1 \\ r \ end {array} \ right) p ^ {r + 1} (1-p) ^ {m- (r + 1)} \ begin {array} {c} \ text {en définissant} \\ m = n + 1 \ end {array} \\ = \ frac {r} {p} E \ left [(Y-1) ^ {k-1} \ right]

ici Y n'est rien d'autre que la variable aléatoire binomiale négative maintenant mettre k = 1 nous obtiendrons

    \ [\\ E [X] = \ frac {r} {p} \ \ et \ \ k = 2 \ \ \\ E \ left [X ^ {2} \ right] = \ frac {r} {p} E [Y-1] \\ = \ frac {r} {p} \ gauche (\ frac {r + 1} {p} -1 \ droite) \]

Ainsi pour la variance

    \ [var (X) = E [X ^ {2}] - {E [X]} ^ {2} \]

    \ [\\ \ operatorname {Var} (X) = \ frac {r} {p} \ left (\ frac {r + 1} {p} -1 \ right) - \ left (\ frac {r} {p } \ right) ^ {2} \\ = \ frac {r (1-p)} {p ^ {2}} \]

Exemple: Si un dé est lancé pour obtenir 5 sur la face du dé jusqu'à ce que nous obtenions 4 fois cette valeur, trouvez l'espérance et la variance.Sine la variable aléatoire associée à cette expérience indépendante est la variable aléatoire binomiale négative pour r = 4 et la probabilité de succès p = 1/6 pour obtenir 5 en un seul lancer

comme nous le savons pour la variable aléatoire binomiale négative 

    \ [E [X] = \ frac {r} {p} \\ \ operatorname {Var} (X) = \ frac {r (1-p)} {p ^ {2}} \]

so

    \ [\\ E [X] = 24 \\ \ operatorname {Var} (X) = \ frac {4 \ left (\ frac {5} {6} \ right)} {\ left (\ frac {1} { 6} \ right) ^ {2}} = 120 \]

Variable aléatoire hypergéométrique

       Si nous choisissons en particulier un échantillon de taille n à partir d'un N total ayant deux types m et Nm, alors la variable aléatoire pour la première a été sélectionnée avec la fonction de masse de probabilité comme

\\ P \ {X = i \} = \ frac {\ left (\ begin {array} {c} m \\ i \ end {array} \ right) \ left (\ begin {array} {c} Nm \ \ ni \ end {array} \ right)} {\ left (\ begin {array} {l} N \\ n \ end {array} \ right)} \ quad i = 0,1, \ ldots, n

par exemple supposons que nous ayons un sac dans lequel un échantillon de taille n livres pris au hasard sans remplacement contenant N livres dont m sont des mathématiques et Nm sont de la physique, si nous attribuons la variable aléatoire pour désigner le nombre de livres de mathématiques sélectionnés alors la masse de probabilité La fonction pour une telle sélection sera conforme à la fonction de masse de probabilité ci-dessus.

  En d'autres termes, la variable aléatoire avec la fonction de masse de probabilité ci-dessus est connue pour être la variable aléatoire hypergéométrique.

Mise en situation : Parmi un grand nombre de composants électroniques, si 30% des lots ont quatre composants défectueux et 70% en ont un défectueux, à condition que la taille du lot soit de 10 et pour accepter le lot, trois composants aléatoires seront choisis et vérifiés si tous sont non défectueux alors lot sera sélectionné. Calculez cela à partir du lot total, quel pourcentage du lot est rejeté.

considérez ici que A est l'événement pour accepter le lot

\\ P \ {X = i \} = \ frac {\ left (\ begin {array} {c} m \\ i \ end {array} \ right) \ left (\ begin {array} {c} Nm \ \ ni \ end {array} \ right)} {\ left (\ begin {array} {l} N \\ n \ end {array} \ right)} \ quad i = 0,1, \ ldots, n

N = 10, m = 4, n = 3

P (A \ mid $ lot a 4 defectives $) = \ frac {\ left (\ begin {array} {l} 4 \\ 0 \ end {array} \ right) \ left (\ begin {array} {l} 6 \\ 3 \ end {array} \ right)} {\ left (\ begin {array} {c} 10 \\ 3 \ end {array} \ right)}

pour N = 10, m = 1, n = 3

P (Un \ mid $ lot a 1 défectueux $) = \ frac {\ left (\ begin {array} {l} 1 \\ 0 \ end {array} \ right) \ left (\ begin {array} {l} 9 \\ 3 \ end {array} \ right)} {\ left (\ begin {array} {c} 10 \\ 3 \ end {array} \ right)}

\ begin {aligné} P (A) & = P (A \ mid \ text {lot has} 4 \ text {defectives}) \ frac {3} {10} + P (A \ mid \ text {lot has} 1 \ text {défectueux}) \ frac {7} {10} \\ & = \ frac {\ left (\ begin {array} {l} 4 \\ 0 \ end {array} \ right) \ left (\ begin { array} {l} 6 \\ 3 \ end {array} \ right)} {\ left (\ begin {array} {c} 10 \\ 3 \ end {array} \ right)} \ left (\ frac {3 } {10} \ right) + \ frac {\ left (\ begin {array} {l} 1 \\ 0 \ end {array} \ right) \ left (\ begin {array} {l} 9 \\ 3 \ end {array} \ right)} {\ left (\ begin {array} {c} 10 \\ 3 \ end {array} \ right)} \ left (\ frac {7} {10} \ right) \\ = & \ frac {54} {100} \ end {aligné}

Ainsi, le lot de 46% sera rejeté.

Attente, variance et écart type de la variable aléatoire hypergéométrique

    L'espérance, la variance et l'écart type de la variable aléatoire hypergéométrique avec les paramètres n, m et N seraient

\\ E [X] = \ frac {nm} {N} \ quad \ operatorname {Var} (X) = np (1-p) \ left (1- \ frac {n-1} {N-1} \ droit)

ou pour la grande valeur de N

\\ \ operatorname {Var} (X) \ approx np (1-p)

et l'écart type est la racine carrée de la variance.

En considérant la définition de la fonction de masse de probabilité de la fonction hypergéormétrique et l'espérance, nous pouvons l'écrire comme

\ begin {aligné} E \ left [X ^ {k} \ right] & = \ sum_ {i = 0} ^ {n} i ^ {k} P \ {X = i \} \\ & = \ sum_ { i = 1} ^ {n} i ^ {k} \ left (\ begin {array} {c} m \\ i \ end {array} \ right) \ left (\ begin {array} {c} Nm \\ ni \ end {array} \ right) / \ left (\ begin {array} {c} N \\ n \ end {array} \ right) \ end {aligné}

ici en utilisant les relations et les identités des combinaisons que nous avons

\ begin {aligné} \\ i \ left (\ begin {array} {c} m \\ i \ end {array} \ right) & = m \ left (\ begin {array} {c} m-1 \\ i-1 \ end {array} \ right) \ text {et} n \ left (\ begin {array} {c} N \\ n \ end {array} \ right) = N \ left (\ begin {array} {c} N-1 \\ n-1 \ end {tableau} \ droit) \ end {aligné}

donc ce serait

\\ E \ left [X ^ {k} \ right] & = \ frac {nm} {N} \ sum_ {i = 1} ^ {n} i ^ {k-1} \ left (\ begin {array} {c} m-1 \\ i-1 \ end {array} \ right) \ left (\ begin {array} {c} Nm \\ ni \ end {array} \ right) / \ left (\ begin {array } {c} N-1 \\ n-1 \ end {array} \ right) \\ & = \ frac {nm} {N} \ sum_ {j = 0} ^ {n-1} (j + 1) ^ {k-1} \ left (\ begin {array} {c} m-1 \\ j \ end {array} \ right) \ left (\ begin {array} {c} Nm \\ n-1-j \ end {array} \ right) / \ left (\ begin {array} {c} N-1 \\ n-1 \ end {array} \ right) \\ & = \ frac {nm} {N} E \ gauche [(Y + 1) ^ {k-1} \ droite] \ end {aligné}

ici Y joue le rôle de variable aléatoire hypergéométrique avec des paramètres respectifs maintenant si nous mettons k = 1 nous obtiendrons

E [X] = \ frac {nm} {N}

et pour k = 2

    \ [\ begin {aligné} E \ left [X ^ {2} \ right] & = \ frac {nm} {N} E [Y + 1] \\ & = \ frac {nm} {N} \ left [ \ frac {(n-1) (m-1)} {N-1} +1 \ droit] \ end {aligné} \]

donc la variance serait

\ operatorname {Var} (X) = \ frac {nm} {N} \ left [\ frac {(n-1) (m-1)} {N-1} + 1- \ frac {nm} {N} \droit]

pour p = m / N et

    \[\\ \frac{m-1}{N-1}=\frac{N p-1}{N-1}=p-\frac{1-p}{N-1}\]

nous obtenons

    \ [\\ \ operatorname {Var} (X) = np \ left [(n-1) p- (n-1) \ frac {1-p} {N-1} + 1-np \ right] \\ \]

pour une très grande valeur de N, il serait évidemment

    \ [\\ \ operatorname {Var} (X) \ approx np (1-p) \]

Variable aléatoire Zeta (Zipf)

        Une variable aléatoire discrète est dite Zêta si sa fonction de masse de probabilité est donnée par

    \ [\\ \ qquad P \ {X = k \} = \ frac {C} {k ^ {\ alpha + 1}} \ quad k = 1,2, \ ldots \]

pour les valeurs positives de alpha.

De la même manière, nous pouvons trouver les valeurs de l'espérance, de la variance et de l'écart type.

     De la même manière, en utilisant uniquement la définition de la fonction de masse de probabilité et l'espérance mathématique, nous pouvons résumer le nombre de propriétés pour chacune des variables aléatoires discrètes, par exemple les valeurs attendues des sommes de variables aléatoires comme

Pour les variables aléatoires

$ X_ {1}, X_ {2}, \ ldots, X_ {n} $

E \ left [\ sum_ {i = 1} ^ {n} X_ {i} \ right] = \ sum_ {i = 1} ^ {n} E \ left [X_ {i} \ right]

Conclusion:

   Dans cet article, nous nous sommes principalement concentrés sur une variable aléatoire discrète supplémentaire, ses fonctions de masse de probabilité, sa distribution et les paramètres statistiques moyenne ou espérance, écart-type et variance.La brève introduction et l'exemple simple dont nous avons discuté pour donner juste l'idée que l'étude détaillée reste à discuter Dans les prochains articles, nous aborderons les variables aléatoires continues et les concepts liés à la variable aléatoire continue, si vous voulez plus de lecture, passez par le lien suggéré ci-dessous. Pour plus de sujets sur les mathématiques, veuillez ceci lien.

Les grandes lignes de la probabilité et des statistiques de Schaum

https://en.wikipedia.org/wiki/Probability

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda