Distribution gamma inverse | Ses 6 propriétés importantes

Distribution gamma inverse et fonction génératrice de moment de la distribution gamma

      Dans la continuité de la distribution gamma, nous verrons le concept de distribution gamma inverse et de fonction génératrice de moment, mesure de la moyenne des tendances centrales, du mode et de la médiane de la distribution gamma en suivant certaines des propriétés de base de la distribution gamma.

propriétés de distribution gamma

Certaines des propriétés importantes de la distribution gamma sont énumérées comme suit

La fonction de densité de probabilité pour la distribution gamma est

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cas}

or

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

où la fonction gamma est

\ tau (\ alpha) = \ int_ {0} ^ {\ infty} e ^ {- y} y ^ {\ alpha -1} dy

La fonction de distribution cumulative de la distribution gamma est

f (a) = P (X \ in (- \ infty, a]) = \ int _ {- \ infty} ^ {a} f (x) dx

où f (x) est la fonction de densité de probabilité donnée ci-dessus en particulier cdf est

F (x) = \ begin {cases} 0, & \ x \ leq 0, \ \ frac {1} {\ tau (\ alpha) \ beta ^ {\ alpha}} \ int_ {0} ^ {x} y ^ {\ alpha -1} e ^ - {(y / \ beta)} dy & \ x> 0 \ end {cases}

  • La moyenne et la variance de la distribution gamma est

E [X] = {\ alpha \ lambda}

et

Var (X) = {{\ alpha} \ lambda} ^ 2

respectivement ou

E [X] = α * β

et

Var (X) = {{\ alpha} \ beta} ^ 2

  • La fonction génératrice de moment M (t) pour la distribution gamma est

= \ left (\ frac {1} {1- \ beta t} \ right) ^ {\ alpha} \ \ if \ \ t <\ frac {1} {\ beta}

or

= \ gauche (\ frac {\ lambda} {\ lambda - t} \ droite) ^ {\ alpha}

  • La courbe pour le pdf et le cdf est
Distribution gamma inverse
  • La distribution gamma inversée peut être définie en prenant la réciproque de la fonction de densité de probabilité de la distribution gamma comme

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

  • La somme de la distribution gamma indépendante est à nouveau la distribution gamma avec la somme des paramètres.

distribution gamma inverse | distribution gamma inverse normale

                Si dans la distribution gamma dans la fonction de densité de probabilité

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ 0 & \ x <0 \ end {cas}

or

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

nous prenons la variable réciproque ou inverse alors la fonction de densité de probabilité sera

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

Ainsi, la variable aléatoire avec cette fonction de densité de probabilité est connue pour être la variable aléatoire gamma inverse ou la distribution gamma inverse ou la distribution gamma inversée.

f_ {Y} (y) = f_ {X} (1 / y) \ gauche | \ frac {\ mathrm {d}} {\ mathrm {d} y} y ^ {- 1} \ right |

= \ frac {1} {\ tau (\ alpha) \ beta ^ {\ alpha}} y ^ {- \ alpha +1} e ^ {(- 1 / \ beta y)} y ^ {- 2}

= \ frac {(\ frac {1} {\ beta}) ^ {\ alpha}} {\ tau (\ alpha)} y ^ {- \ alpha -1} e ^ {(- 1 / \ beta) / y }

La fonction de densité de probabilité ci-dessus dans tout paramètre que nous pouvons prendre sous la forme de lambda ou thêta, la fonction de densité de probabilité qui est l'inverse de la distribution gamma est la fonction de densité de probabilité de la distribution gamma inverse.

Fonction de distribution cumulative ou CDF de distribution gamma inverse

                La fonction de distribution cumulative pour la distribution gamma inverse est la fonction de distribution

f (a) = P (X \ in (- \ infty, a]) = \ int _ {- \ infty} ^ {a} f (x) dx

dans laquelle f (x) est la fonction de densité de probabilité de la distribution gamma inverse comme

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

Moyenne et variance de la distribution gamma inverse

  La moyenne et la variance de la distribution gamma inverse en suivant la définition habituelle de l'espérance et de la variance seront

E [X] = \ frac {\ beta} {\ alpha -1} \ \, \ alpha> 1

et

Var [X] = \ frac {\ beta ^ {2}} {(\ alpha -1) ^ {2} (\ alpha -2)} \ \, \ alpha> 2

Moyenne et variance de la preuve de la distribution gamma inverse

        Pour obtenir la moyenne et la variance de la distribution gamma inverse à l'aide de la fonction de densité de probabilité

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

et la définition des attentes, nous trouvons d'abord l'espérance pour toute puissance de x comme

E (X ^ {n}) = \ frac {\ beta ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} x ^ {n} x ^ {- \ alpha - 1} e ^ {(- \ beta / x)} dx

E (X ^ {n}) = \ frac {\ beta ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} x ^ {n- \ alpha -1} e ^ {(- \ beta / x)} dx

E (X ^ {n}) = \ frac {\ beta ^ {\ alpha}} {\ tau (\ alpha)} \ frac {\ tau (\ alpha -n)} {\ beta ^ {\ alpha -n} }

= \ frac {\ beta ^ {n} \ tau (\ alpha-n)} {(\ alpha -1)…. (\ alpha -n) \ tau (\ alpha -n)}

= \ frac {\ beta ^ {n}} {(\ alpha -1)…. (\ alpha -n)}

dans l'intégrale ci-dessus, nous avons utilisé la fonction de densité comme

f (x) = \ frac {\ beta ^ {\ alpha}} {\ tau \ alpha} x ^ {- \ alpha -1} e ^ {(- \ beta / x)}

maintenant pour la valeur de α supérieure à un et n comme un

E (X) = \ frac {\ beta} {\ alpha -1}

de même la valeur pour n = 2 est pour alpha supérieur à 2

E (X ^ {2}) = \ frac {\ beta ^ {2}} {(\ alpha -1) (\ alpha -2)}

l'utilisation de ces attentes nous donnera la valeur de la variance comme

Var (X) = E (X ^ {2}) -E (X) ^ {2} = \ frac {\ beta ^ {2}} {(\ alpha -1) ^ {2} (\ alpha -2) }

Diagramme de distribution gamma d'Invers | Graphique de distribution gamma inverse

                La distribution gamma inverse est l'inverse de la distribution gamma donc tout en observant la distribution gamma, il est bon d'observer la nature des courbes de distribution gamma inverse ayant une fonction de densité de probabilité comme

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

et la fonction de distribution cumulative en suivant

F (a) = P (X \ in (- \ infty, a]) = \ int _ {- \ infty} ^ {a} f (x) dx

Distribution gamma inverse
Graphique de distribution gamma inverse

Description: graphiques pour la fonction de densité de probabilité et la fonction de distribution cumulative en fixant la valeur de α à 1 et en faisant varier la valeur de β.

Distribution gamma inverse
Graphique de distribution gamma inverse

Description: graphiques pour la fonction de densité de probabilité et la fonction de distribution cumulative en fixant la valeur de α à 2 et en faisant varier la valeur de β

Distribution gamma inverse
Graphique de distribution gamma inverse

Description: graphiques pour la fonction de densité de probabilité et la fonction de distribution cumulative en fixant la valeur de α à 3 et en faisant varier la valeur de β.

Distribution gamma inverse
Graphique de distribution gamma inverse

Description: graphiques pour la fonction de densité de probabilité et la fonction de distribution cumulative en fixant la valeur de β à 1 et en faisant varier la valeur de α.

Distribution gamma inverse
Graphique de distribution gamma inverse

Description: graphiques pour la fonction de densité de probabilité et la fonction de distribution cumulative en fixant la valeur de β à 2 et en faisant varier la valeur de α

Distribution gamma inverse
Graphique de distribution gamma inverse

Description: graphiques pour la fonction de densité de probabilité et la fonction de distribution cumulative en fixant la valeur de β à 3 et en faisant varier la valeur de α.

fonction génératrice de moment de la distribution gamma

Avant de comprendre le concept de fonction génératrice de moment pour la distribution gamma, rappelons un concept de fonction génératrice de moment

Des moments

    Le moment de la variable aléatoire est défini à l'aide de l'espérance comme

{\ mu_ {r}} '= E (X ^ {r})

c'est ce qu'on appelle le r-ième moment de la variable aléatoire X c'est le moment d'origine et communément appelé moment brut.

     Si nous prenons le r-ième moment de la variable aléatoire autour de la moyenne μ comme

{\ mu_ {r}} = E [(X- \ mu) ^ {r}]

ce moment sur la moyenne est connu comme moment central et l'espérance sera selon la nature de la variable aléatoire comme

{\ mu_ {r}} = \ sum (X- \ mu) ^ {r} f (x) \ \ (discret \ \ variable)

{\ mu_ {r}} = \ int _ {- \ infty} ^ {\ infty} (X- \ mu) ^ {r} f (x) \ \ (continu \ \ variable)

dans le moment central si nous mettons des valeurs de r alors nous obtenons quelques instants initiaux comme

{\ mu} {0} = 1, {\ mu} {1} = 0, {\ mu} _ {2} = \ sigma ^ {2}

Si nous prenons l'expansion binomiale dans les moments centraux, nous pouvons facilement obtenir la relation entre les moments centraux et bruts comme

{\ mu} {r} = {\ mu} ' {r} - \ binom {r} {1} {\ mu}' {r-1} {\ mu} +… .. + (- 1) ^ { j} \ binom {r} {j} {\ mu} ' {rj} {\ mu} ^ {j} +… .. + (- 1) ^ {^ {r}} {\ mu}' _ {0 } {\ mu} ^ {r}

certaines des relations initiales sont les suivantes

{\ mu} ' {1} = {\ mu} \ \ et \ \ {\ mu}' {0} = 1, \ \ \ {\ mu} {2} = {\ mu} ' {2} - { \ mu} ^ {2} \ {\ mu} {3} = {\ mu} ' {3} -3 {\ mu}' {2} {\ mu} +2 {\ mu} ^ {3} \ { \ mu} {4} = {\ mu} ' {4} -4 {\ mu}' {3} {\ mu} +6 {\ mu} ' {2} {\ mu} ^ {2} -3 { \ mu} ' {4}

Fonction de génération de moment

   Les moments que nous pouvons générer à l'aide d'une fonction, cette fonction est connue sous le nom de fonction génératrice de moment et est définie comme

M_ {X} (t) = E (e ^ {tX})

cette fonction génère les moments à l'aide de l'expansion de la fonction exponentielle sous l'une ou l'autre des formes

M_ {X} (t) = \ sum e ^ {tX} f (x) \ \ (discret \ \ variable) \ M_ {X} (t) = \ int _ {- \ infty} ^ {\ infty} e ^ {tX} f (x) \ \ (continu \ \ variable)

en utilisant la forme de Taylors comme

M_ {X} (t) = 1 + \ mu t + \ mu ' {2} \ frac {t ^ {2}} {2!} +…. + \ Mu' {r} \ frac {t ^ {r} } {r!} + ..

la différenciation de cette fonction élargie par rapport à t donne les différents moments comme

\ mu ' {r} = \ frac {\ mathrm {d ^ {r}}} {\ mathrm {d} t ^ {r}} M {X} (t) \ lvert_ {t = 0}

sur une autre manière si nous prenons la dérivée directement comme

M '(t) = \ frac {\ mathrm {d}} {\ mathrm {d} t} E [e ^ {tX}] \ = E \ left [\ frac {\ mathrm {d}} {\ mathrm { d} t} (e ^ {tX}) \ right] \ = E \ left [Xe ^ {tX} \ right]

puisque pour les deux discrets

\ frac {\ mathrm {d}} {\ mathrm {d} t} \ left [\ sum_ {x} e ^ {tx} p (x) \ right] = \ sum_ {x} \ frac {\ mathrm {d }} {\ mathrm {d} t} [e ^ {tx} p (x)]

et continue nous avons

\ frac {\ mathrm {d}} {\ mathrm {d} t} \ left [\ int e ^ {tx} f (x) dx \ right] = \ int \ frac {\ mathrm {d}} {\ mathrm {d} t} [e ^ {tx} f (x)] dx

donc pour t = 0 nous obtiendrons

M '(0) = E [X]

également

M '' (t) = \ frac {\ mathrm {d}} {\ mathrm {d} t} M '(t) \ = \ frac {\ mathrm {d}} {\ mathrm {d} t} E [ Xe ^ {tX}] \ = E \ gauche [\ frac {\ mathrm {d}} {\ mathrm {d} t} (Xe ^ {tX}) \ droite] \ = E [X ^ {2} e ^ {tX}]

as

M '' (0) = E [X ^ {2}]

et en général

M ^ {n} (t) = E [X ^ {n} e ^ {tX}] \ \ n \ geq 1 \ M ^ {n} (0) = E [X ^ {n}] \ \ n \ geq 1

il y a deux relations importantes pour le moment générant des fonctions

M _ {(X + a) / b} (t) = e ^ {à / b}] M_ {X} (t / b) \ M _ {(X + Y)} (t) = M_ {X} (t ) M_ {Y} (t)

fonction génératrice de moment d'une distribution gamma | mgf de distribution gamma | fonction de génération de moment pour la distribution gamma

Maintenant, pour la distribution gamma, la fonction génératrice de moment M (t) pour le pdf

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

is

= \ left (\ frac {1} {1- \ beta t} \ right) ^ {\ alpha} \ \ if \ \ t <\ frac {1} {\ beta}

et pour le pdf

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cas}

la fonction génératrice de moment est

= \ gauche (\ frac {\ lambda} {\ lambda -t} \ droite) ^ {\ alpha}

preuve de fonction génératrice de moment de distribution gamma | mgf de preuve de distribution gamma

    Maintenant, prenez d'abord la forme d'une fonction de densité de probabilité comme

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cas}

et en utilisant la définition de la fonction génératrice de moment M (t), nous avons

M_ {X} (t) = E (e ^ {tX})

= E \ left [e ^ {tX} \ right] \ = \ frac {\ lambda ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} e ^ {tx} e ^ {- \ lambda x} x ^ {\ alpha -1} dx \ = \ frac {\ lambda ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} e ^ { - (\ lambda -t) x} x ^ {\ alpha -1} dx \ = \ frac {\ lambda} {\ lambda -t} ^ {\ alpha} \ frac {1} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} e ^ {- y} y ^ {\ alpha -1} dy \ \ \ \ [by \ \ y = (\ lambda -t) x] \ = \ frac {\ lambda } {\ lambda -t} ^ {\ alpha}

nous pouvons trouver la moyenne et la variance de la distribution gamma à l'aide de la fonction génératrice de moment comme différenciant par rapport à t deux fois cette fonction, nous obtiendrons

= \ frac {\ alpha \ lambda ^ {\ alpha}} {(\ lambda -t) ^ {\ alpha +1}} \\ = \ frac {\ alpha (\ alpha +1) \ lambda ^ {\ alpha} } {(\ lambda -t) ^ {\ alpha +2}}

si nous mettons t = 0 alors la première valeur sera

E [X] = \ frac {\ alpha} {\ lambda}

et

E [X ^ {2}] = \ frac {\ alpha (\ alpha +1)} {\ lambda ^ {2}}

Mettre maintenant la valeur de ces attentes dans

Var (X) = E [X ^ {2}] -E [X] ^ {2} \ Var (X) = \ frac {\ alpha (\ alpha +1)} {\ lambda ^ {2}} - \ frac {\ alpha ^ {2}} {\ lambda ^ {2}} \ Var (X) = \ frac {\ alpha ^ {2} + \ alpha} {\ lambda ^ {2}} - \ frac {\ alpha ^ {2}} {\ lambda ^ {2}} = \ frac {\ alpha} {\ lambda ^ {2}}

alternativement pour le pdf du formulaire

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

la fonction génératrice de moment sera

M (t) = \ frac {1} {\ tau (\ alpha) \ beta ^ {\ alpha}} \ int_ {0} ^ {\ infty} e ^ {^ (x (t-1 / \ beta)} x ^ {\ alpha -1} dx \ = \ left (\ frac {1} {1- \ beta t} \ right) ^ {\ alpha} \ int_ {0} ^ {\ infty} \ frac {y ^ { \ alpha -1} e ^ {- y}} {\ tau (\ alpha)} dy \ \, \ \ t <\ frac {1} {\ beta} \ = (1- \ beta t) ^ {- \ alpha} \ \ t <\ frac {1} {\ beta}

et différencier et mettre t = 0 donnera la moyenne et la variance comme suit

EX = M '(t) \ lvert_ {t = 0} = \ alpha \ beta, \ EX ^ {2} = M' '(t) \ lvert_ {t = 0} = \ alpha (\ alpha +1) \ bêta ^ {2}, \ Var (X) = \ alpha \ beta ^ {2}

2ème moment de distribution gamma

   Le deuxième moment de la distribution gamma en différenciant deux fois la fonction génératrice de moment et en mettant la valeur de t = 0 en dérivée seconde de cette fonction, nous obtiendrons

E [X ^ {2}] = \ frac {\ alpha (\ alpha +1)} {\ lambda ^ {2}}

troisième moment de la distribution gamma

                Le troisième moment de la distribution gamma que nous pouvons trouver en différenciant la fonction génératrice de moment trois fois et en mettant la valeur de t = 0 en troisième dérivée du mgf que nous obtiendrons

E [X ^ {3}] = \ frac {\ alpha (\ alpha +1) (\ alpha +2)} {\ lambda ^ {3}}

ou directement en intégrant comme

E [X ^ {3}] = \ int_ {0} ^ {\ infty} x ^ {3} f_ {X} (x) dx \ = \ int_ {0} ^ {\ infty} \ frac {\ lambda ^ {\ alpha} x ^ {3+ \ alpha -1} e ^ {- \ lambda x}} {\ tau (\ alpha)} dx \ = \ frac {1} {\ lambda ^ {3}} \ int_ { 0} ^ {\ infty} \ frac {\ lambda ^ {\ alpha +3} x ^ {3+ \ alpha -1} e ^ {- \ lambda x}} {\ tau (\ alpha)} dx \ = \ frac {\ tau (\ alpha +3)} {\ lambda ^ {3} \ tau (\ alpha)} \ int_ {0} ^ {\ infty} \ frac {\ lambda ^ {\ alpha +3} x ^ { 3+ \ alpha -1} e ^ {- \ lambda x}} {\ tau (\ alpha +3)} dx

 sigma pour la distribution gamma

   sigma ou écart type de la distribution gamma que nous pouvons trouver en prenant la racine carrée de la variance de la distribution gamma de type

Var (X) = \ alpha \ beta ^ {2}

or

Var (X) = \ frac {\ alpha} {\ lambda ^ {2}}

pour toute valeur définie de alpha, beta et lambda.

fonction caractéristique de la distribution gamma | fonction caractéristique de distribution gamma

      Si la variable t dans la fonction génératrice de moment est purement un nombre imaginaire comme t = iω alors la fonction est connue comme la fonction caractéristique de la distribution gamma notée et exprimée comme

\ phi_ {X} (\ omega) = M_ {X} (i \ omega) = E (e ^ {i \ omega X})

comme pour toute variable aléatoire, la fonction caractéristique sera

\ phi_ {X} (\ omega) = \ sum E (e ^ {i \ omega X}) f (x) \ \ (discrete \ \ variable) \ \ phi_ {X} (\ omega) = \ int _ {- \ infty} ^ {\ infty} E (e ^ {i \ omega X}) f (x) \ \ (continu \ \ variable) \

Ainsi, pour la distribution gamma, la fonction caractéristique en suivant le pdf de la distribution gamma est

\ phi_ {X} (\ omega) = (1-i \ beta \ omega) ^ {- \ alpha}

Abonnement

\ int _ {- \ infty} ^ {\ infty} x ^ {\ alpha -1} e ^ {- x} (1-i \ beta t) / \ beta dx = ((1-i \ beta t) / \ beta) ^ {- \ alpha} \ int_ {0} ^ {\ infty} x ^ {\ alpha -1} e ^ {- x} dx = \ tau (\ alpha) \ beta ^ {\ alpha} (1- i \ beta t) ^ {- \ alpha}

Il existe une autre forme de cette fonction de caractéristiques également si

M_ {X} (t) = (1- \ frac {2h} {n} t) ^ {- n / 2}

puis

\ phi_ {X} (t) = (1- \ frac {2h} {n} it) ^ {- n / 2}

somme des distributions gamma | somme de la distribution exponentielle gamma

  Pour connaître le résultat de la somme de la distribution gamma, il faut tout d'abord comprendre la somme de la variable aléatoire indépendante pour la variable aléatoire continue, pour cela ayons des fonctions de densité de probabilité pour les variables aléatoires continues X et Y puis la fonction de distribution cumulative pour la somme des variables aléatoires seront

F_ {X} + _ {Y} (a) = P {(X + Y \ leq a)} \ \
= \ iint {X + Y \ leq a} f_ {X} (x) f_ {Y} (y) dx dy \ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ { ay} f_ {X} (x) f_ {Y} (y) dx dy \ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) dx f_ {Y} (y) dy \ = \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

la différenciation de cette convolution d'intégrale pour les fonctions de densité de probabilité de X et Y donnera la fonction de densité de probabilité pour la somme des variables aléatoires comme

F_ {X} + {Y} (a) = \ frac {\ mathrm {d}} {\ mathrm {d} a} \ int {- \ infty} ^ {\ infty} F_ {X} (ay) f_ { Y} (y) dy \ = \ int _ {- \ infty} ^ {\ infty} \ frac {\ mathrm {d}} {\ mathrm {d} a} F_ {X} (ay) f_ {Y} (y ) dy \ = \ int _ {- \ infty} ^ {\ infty} f_ {X} (ay) f_ {Y} (y) dy

Prouvons maintenant si X et Y sont les variables aléatoires gamma avec des fonctions de densité respectives, alors la somme sera également une distribution gamma avec la somme des mêmes paramètres

considérant la fonction de densité de probabilité de la forme

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ 0 & \ x <0 \ end {cas}

pour la variable aléatoire X prendre alpha comme s et pour la variable aléatoire Y prendre alpha comme t donc en utilisant la densité de probabilité pour la somme des variables aléatoires que nous avons

F_ {X} + {Y} (a) = \ frac {1} {\ Gamma (s) \ Gamma (t)} \ int {0} ^ {a} \ lambda e ^ {- \ lambda (ay)} (\ lambda (ay)) ^ {s-1} \ lambda e ^ {- \ lambda y} (\ lambda y) ^ {t-1} dy

ici C est indépendant de a, maintenant la valeur sera

F_ {X} + _ {Y} (a) = \ frac {\ lambda e ^ {- \ lambda a} (\ lambda a) ^ {s + t-1}} {\ Gamma (s + t)}

qui représentent la fonction de densité de probabilité de la somme de X et Y et qui est de la distribution gamma, donc la somme de la distribution gamma représente également la distribution gamma par la somme respective des paramètres.

mode de distribution gamma

    Pour trouver le mode de distribution gamma, considérons la fonction de densité de probabilité comme

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ Gamma (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cas}

maintenant différenciez ce pdf par rapport à x, nous obtiendrons la différenciation comme

= \ frac {\ lambda ^ {\ alpha}} {\ Gamma (\ alpha)} e ^ {- \ lambda x} [(\ alpha -1) x ^ {\ alpha -2} - \ lambda x ^ {\ alpha -1}] = \ frac {\ lambda ^ {\ alpha}} {\ Gamma (\ alpha)} e ^ {- \ lambda x} [(\ alpha -1) x ^ {\ alpha -2} [( \ alpha -1) - \ lambda x]]

ce sera zéro pour x = 0 ou x = (α -1) / λ

donc ce ne sont que des points critiques auxquels notre première dérivée sera nulle si alpha supérieur ou égal à zéro, alors x = 0 ne sera pas mode car cela rend pdf zéro donc le mode sera (α -1) / λ

et pour alpha strictement inférieur à un, la dérivée diminue de l'infini à zéro lorsque x augmente de zéro à l'infini donc ce n'est pas possible d'où le mode de distribution gamma est

\ textbf {mode} = \ mathbf {\ frac {\ alpha -1} {\ lambda}}

médiane de la distribution gamma

La médiane de la distribution gamma peut être trouvée à l'aide de la distribution gamma inverse comme

\ textbf {median} = {\ frac {\ 1} {\ lambda} \ gamma ^ {- 1} \ left (\ alpha, \ frac {\ Gamma (\ alpha)} {2} \ right)}

or

\ textbf {median} = \ beta \ gamma ^ {- 1} \ left (\ alpha, \ frac {\ Gamma (\ alpha)} {2} \ right)

à condition de

n+\frac{2}{3}< median(n)< min(n+log2,n+\frac{2}{3}+(2n+2)^{-1})

qui donne

median(n)=n+\frac{2}{3}+\frac{8}{405n} -\frac{64}{5103n^{2}}+…..

forme de distribution gamma

     La distribution gamma prend une forme différente en fonction du paramètre de forme lorsque le paramètre de forme est une distribution gamma est égale à la distribution exponentielle mais lorsque nous faisons varier le paramètre de forme, l'asymétrie de la courbe de distribution gamma diminue à mesure que l'augmentation du paramètre de forme, en d'autres termes la forme de la courbe de distribution gamma change selon l'écart type.

asymétrie de la distribution gamma

    l'asymétrie de toute distribution peut être observée en observant la fonction de densité de probabilité de cette distribution et le coefficient d'asymétrie

\ gamma {1} = \ frac {E \ left [\ left (X - \ mu \ right) ^ {3} \ right]} {\ sigma ^ {3}} = \ frac {\ mu {3}} { \ sigma ^ {3}}

pour la distribution gamma que nous avons

E (X ^ {k}) = \ frac {(\ alpha + k-1) (\ alpha + k-2) ……. \ Alpha} {\ beta ^ {k}}

so

\ gamma _ {1} = \ frac {\ frac {(\ alpha +2) (\ alpha +1) \ alpha} {\ beta ^ {3}} - 3 \ frac {\ alpha} {\ beta} \ frac {\ alpha} {\ beta ^ {3}} - \ frac {\ alpha ^ {3}} {\ beta ^ {3}}} {{\ left (\ frac {\ alpha} {\ beta ^ {2} } \ right)} ^ {\ frac {3} {2}}} = \ frac {2} {\ sqrt {\ alpha}}

cela montre que l'asymétrie ne dépend de l'alpha que si l'alpha augmente jusqu'à l'infini, la courbe sera plus symétrique et nette et lorsque l'alpha va à zéro, la courbe de densité de distribution gamma est positivement asymétrique qui peut être observée dans les graphiques de densité.

distribution gamma généralisée | paramètre de forme et d'échelle dans la distribution gamma | distribution gamma à trois paramètres | distribution gamma multivariée

f (x) = \ frac {(\ frac {(x- \ mu)} {\ beta}) ^ {\ gamma -1} e ^ {- \ frac {x- \ mu} {\ beta}}} { \ beta \ Gamma (\ gamma)} \ \ x \ geq \ mu; \ gamma, \ beta> 0

où γ, μ et β sont respectivement les paramètres de forme, d'emplacement et d'échelle, en attribuant des valeurs spécifiques à ces paramètres, nous pouvons obtenir la distribution gamma à deux paramètres spécifiquement si nous mettons μ = 0, β = 1 alors nous obtiendrons une distribution gamma standard comme

f (x) = \ frac {x ^ {\ gamma -1} e ^ {- x}} {\ Gamma (\ gamma)} \ \ x \ geq 0; \ gamma> 0

en utilisant cette fonction de densité de probabilité de distribution gamma à 3 paramètres, nous pouvons trouver l'espérance et la variance en suivant leur définition respectivement.

Conclusion:

Le concept de réciproque de distribution gamma qui est distribution gamma inverse en comparaison avec la distribution gamma et la mesure des tendances centrales de la distribution gamma à l'aide de la fonction de génération de moment étaient au centre de cet article, si vous avez besoin de plus de lecture, consultez les livres et liens suggérés. Pour plus d'articles sur les mathématiques, visitez notre page de mathématiques.

https://en.wikipedia.org/wiki/Gamma_distribution

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda