Fonctions génératrices de moments | Ses 6 distributions importantes

Fonction de génération de moment    

La fonction génératrice de moment est une fonction très importante qui génère les moments de variable aléatoire qui impliquent la moyenne, l'écart type et la variance, etc., donc avec l'aide de la fonction génératrice de moment uniquement, nous pouvons trouver des moments de base ainsi que des moments plus élevés. Dans cet article, nous verra des fonctions génératrices de moments pour les différentes variables aléatoires discrètes et continues. puisque la fonction génératrice de moment (MGF) est définie à l'aide de l'espérance mathématique notée M(t) comme

M(t)=E\gauche[e^{t X}\droite]

et en utilisant la définition de l'espérance pour la variable aléatoire discrète et continue cette fonction sera

M(t)=\left\{\begin{array}{ll} \sum_{x} e^{tx} p(x) & \text { if } X \text { est discret avec fonction de masse } p(x ) \\ \int_{-\infty}^{\infty} e^{ix} f(x) dx & \text { if } X \text { est continu avec la densité } f(x) \end{array}\ droite.

qui en substituant la valeur de t par zéro génère des moments respectifs. Ces moments que nous devons collecter en différenciant cette fonction génératrice de moment par exemple pour le premier moment ou moyen que nous pouvons obtenir en différenciant une fois comme

\begin{aligned} M^{\prime}(t) &=\frac{d}{dt} E\left[e^{t X}\right] \\ &=E\left[\frac{d} {dt}\left(e^{LX}\right)\right] \\ &=E\left[X e^{t X}\right] \end{aligned}

Cela donne à penser que la différenciation est interchangeable sous l'attente et nous pouvons l'écrire comme

\frac{d}{dt}\left[\sum_{x} e^{ix} p(x)\right]=\sum_{x} \frac{d}{dt}\left[e^{\operatorname {tr}} p(x)\droit]

et

\frac{d}{dt}\left[\int e^{ix} f(x) dx\right]=\int \frac{d}{dt}\left[e^{tx} f(x)\ à droite] dx

si t=0 les moments ci-dessus seront

M^{\premier}(0)=E[X]

et

\begin{aligned} M^{\prime \prime}(t) &=\frac{d}{dt} M^{\prime}(t) \\ &=\frac{d}{dt} E\left [X e^{t X}\right] \\ &=E\left[\frac{d}{dt}\left(X e^{t X}\right)\right] \\ &=E\left [X^{2} e^{LX}\right]\\ M^{\prime \prime}(0)&=E\left[X^{2}\right] \end{aligned}

En général on peut dire que

M^{n}(t)=E\gauche[X^{n} e^{t X}\droite] \quad n \geq 1

d'où

M^{n}(0)=E\gauche[X^{n}\droite] \quad n \geq 1

Fonction génératrice de moment de la distribution binomiale||Fonction génératrice de moment de la distribution binomiale||MGF de la distribution binomiale||Moyenne et variance de la distribution binomiale utilisant la fonction génératrice de moment

La fonction génératrice de moment pour la variable aléatoire X qui est la distribution binomiale suivra la fonction de probabilité de la distribution binomiale avec les paramètres n et p comme

\begin{aligned} M(t) &=E\left[e^{t X}\right] \\ &=\sum_{k=0}^{n} e^{tk}\left(\begin{ array}{l} n \\ k \end{array}\right) p^{k}(1-p)^{nk} \\ &=\sum_{k=0}^{n}\left(\ begin{array}{l} n \\ k \end{array}\right)\left(pe^{t}\right)^{k}(1-p)^{nk} \\ &=\left( pe^{t}+1-p\right)^{n} \end{aligned}

qui est le résultat par théorème binomial, maintenant en différenciant et en mettant la valeur de t=0

M^{\prime}(t)=n\left(pe^{t}+1-p\right)^{n-1} pe^{t}\\ E[X]=M^{\prime} (0)=np

qui est la moyenne ou le premier moment de la distribution binomiale de même le deuxième moment sera

M^{\prime}(t)=n(n-1)\left(pe^{t}+1-p\right)^{n-2}\left(pe^{t}\right)^{ 2}+n\left(pe^{t}+1-p\right)^{n-1} pe^{t}\\ E\left[X^{2}\right]=M^{\prime \prime}(0)=n(n-1) p^{2}+np

donc la variance de la distribution binomiale sera

\begin{aligned} \operatorname{Var}(X) &=E\left[X^{2}\right]-(E[X])^{2} \\ &=n(n-1) p^ {2}+n pn^{2} p^{2} \\ &=np(1-p) \end{aligned}

qui est la moyenne et la variance standard de la distribution binomiale, de même les moments les plus élevés que nous pouvons également trouver en utilisant cette fonction génératrice de moments.

Fonction génératrice de moment de Poisson diffusion||Poisson fonction génératrice du moment de distribution||MGF de Poisson distribution||Moyenne et variance de la distribution de Poisson utilisant la fonction génératrice de moment

 Si nous avons la variable aléatoire X qui est Poisson distribuée avec le paramètre Lambda alors la fonction génératrice de moment pour cette distribution sera

\begin{aligned} M(t) &=E\left[e^{\ell X}\right] \\ &=\sum_{n=0}^{\infty} \frac{e^{in} e ^{-\lambda} \lambda^{n}}{n !} \\ &=e^{-\lambda} \sum_{n=0}^{\infty} \frac{\left(\lambda e^ {t}\right)^{n}}{n !}\\ &=e^{-\lambda} e\\ &=e^ {\left\{\lambda\left(e^{t}-1 \right)\right\}} \end{aligned}

maintenant en différenciant cela donnera

\begin{aligned} M^{\prime}(t) &=\lambda e^{t} e^{\left\{\lambda\left(e^{t}-1\right)\right\} } \\ M^{\prime \prime}(t) &=\left(\lambda e^{t}\right)^{2} e^{\left\{\lambda\left(e^{t}- 1\right)\right\}}+\lambda e^{t} e^{ \left\{\lambda\left(e^{t}-1\right)\right\}} \end{aligned}

cela donne

\begin{aligned} E[X] &=M^{\prime}(0)=\lambda \\ E\left[X^{2}\right] &=M^{\prime \prime}(0) =\lambda^{2}+\lambda \\ \operatorname{Var}(X) &=E\left[X^{2}\right]-(E[X])^{2} \\ &=\ lambda \end{aligné}

ce qui donne la moyenne et la variance pour la distribution de Poisson même ce qui est vrai

Fonction génératrice de moments de la distribution exponentielle||Exponentiel fonction génératrice du moment de distribution||MGF de Exponentiel distribution||Moyenne et Variance de Exponentiel distribution utilisant la fonction génératrice de moment

                La fonction génératrice de Moment pour la variable aléatoire exponentielle X en suivant la définition est

\begin{aligned} M(t) &=E\left[e^{t X}\right] \\ &=\int_{0}^{\infty} e^{\lfloor x} \lambda e^{ -\lambda x} dx \\ &=\lambda \int_{0}^{\infty} e^{-(\lambda-t) x} dx \\ &=\frac{\lambda}{\lambda-t } \quad \text { pour } t<\lambda \end{aligned}

ici la valeur de t est inférieure au paramètre lambda, maintenant en différenciant cela donnera

M^{\prime}(t)=\frac{\lambda}{(\lambda-t)^{2}} \quad M^{\prime \prime}(t)=\frac{2 \lambda}{ (\lambda-t)^{3}}

qui fournit les moments

E[X]=M^{\prime}(0)=\frac{1}{\lambda} \quad E\left[X^{2}\right]=M^{\prime \prime}(0) =\frac{2}{\lambda^{2}}

clairement

\begin{aligned} \operatorname{Var}(X) &=E\left[X^{2}\right]-(E[X])^{2} \\ &=\frac{1}{\lambda ^{2}} \end{aligné}

Quelles sont la moyenne et la variance de la distribution exponentielle.

Fonction génératrice de moments de la distribution normale||Normal fonction génératrice du moment de distribution||MGF de Normal distribution||Moyenne et Variance de Ordinaire distribution utilisant la fonction génératrice de moment

  La fonction génératrice de moment pour les distributions continues est également la même que celle discrète, de sorte que la fonction génératrice de moment pour la distribution normale avec une fonction de densité de probabilité standard sera

\begin{aligned} M_{Z}(t) &=E\left[e^{t Z}\right] \\ &=\frac{1}{\sqrt{2 \pi}} \int_{-\ infty}^{\infty} e^{tx} e^{-x^{2} / 2} dx \end{aligned}

cette intégration, nous pouvons résoudre par ajustement comme

\begin{array}{l} =\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ \left\{-\frac{\left(x ^{2}-2 tx\right)}{2}\right\} }dx \\ =\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e ^{ \left\{-\frac{(xt)^{2}}{2}+\frac{t^{2}}{2}\right\}} dx \\ =e^{t^{2 } / 2} \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{-(xt)^{2} / 2} dx \\ =e^ {t^{2} / 2} \end{array}

puisque la valeur de l'intégration est 1. Ainsi, la fonction génératrice du moment pour la variable normale standard sera

M_{Z}(t)=e^{t^{2} / 2}

à partir de là, nous pouvons trouver pour toute variable aléatoire normale générale la fonction génératrice de moment en utilisant la relation

X=\mu+\sigma Z

ainsi

\begin{aligned} M_{X}(t) &=E\left[e^{t X}\right] \\ &=E\left[e^{t(\mu+\sigma Z)}\right] \\ &=E\left[e^{t \mu} e^{b \sigma Z}\right] \\ &=e^{t \mu} E\left[e^{k \sigma Z}\ à droite] \\ &=e^{t \mu} M_{Z}(t \sigma) \\ &=e^{t \mu} e^{(t \sigma)^{2} / 2} \\ &=e^{\left\{\frac{\sigma^{2} t^{2}}{2}+\mu t\right\}} \end{aligned}

donc la différenciation nous donne

\begin{array}{l} M_{X}^{\prime}(t)=\left(\mu+t \sigma^{2}\right) \exp \left\{\frac{\sigma^{ 2} t^{2}}{2}+\mu t\right\} \\ M_{X}^{\prime \prime}(t)=\left(\mu+t \sigma^{2}\ right)^{2} \exp \left\{\frac{\sigma^{2} t^{2}}{2}+\mu t\right\}+\sigma^{2} \exp \left\ {\frac{\sigma^{2} t^{2}}{2}+\mu t\right\} \end{array}

ainsi

\begin{aligned} E[X] &=M^{\prime}(0)=\mu \\ E\left[X^{2}\right] &=M^{\prime \prime}(0) =\mu^{2}+\sigma^{2} \end{aligned}

donc l'écart sera

\begin{aligned} \operatorname{Var}(X) &=E\left[X^{2}\right]-E([X])^{2} \\ &=\sigma^{2} \end {aligné}

Fonction génératrice de moments de la somme des variables aléatoires

au jugement, Fonction de génération de moment de la somme des variables aléatoires donne une propriété importante qu'elle est égale au produit de la fonction génératrice du moment des variables aléatoires indépendantes respectives qui est pour les variables aléatoires indépendantes X et Y alors la fonction génératrice du moment pour la somme de la variable aléatoire X + Y est

Fonction de génération de moment
FMG DE SOMME

ici, les fonctions génératrices de moments de chaque X et Y sont indépendantes par la propriété de l'espérance mathématique. Dans la succession, nous trouverons la somme des fonctions génératrices de moments de différentes distributions.

Somme des variables aléatoires binomiales

Si les variables aléatoires X et Y sont distribuées par distribution binomiale avec les paramètres (n,p) et (m,p) respectivement alors la fonction génératrice de moment de leur somme X+Y sera

\begin{aligned} M_{X+Y}(t)=M_{X}(t) M_{Y}(t) &=\left(pe^{t}+1-p\right)^{n} \left(pe^{t}+1-p\right)^{m} \\ &=\left(pe^{t}+1-p\right)^{m+n} \end{aligned}

où les paramètres de la somme sont (n+m,p).

Somme des variables aléatoires de Poisson

La distribution pour la somme des variables aléatoires indépendantes X et Y avec des moyennes respectives qui sont distribuées par la distribution de Poisson, nous pouvons trouver comme

\begin{aligned} M_{X+Y}(t) &=M_{X}(t) M_{Y}(t) \\ &=\exp \left\{\lambda_{1}\left(e^ {t}-1\right)\right\} \exp \left\{\lambda_{2}\left(e^{t}-1\right)\right\} \\ &=\exp \left\{ \left(\lambda_{1}+\lambda_{2}\right)\left(e^{t}-1\right)\right\} \end{aligned}

\lambda_{1}+\lambda_{2}

est la moyenne de la variable aléatoire de Poisson X+Y.

Somme des variables aléatoires normales

     Considérons les variables aléatoires normales indépendantes X et Y avec les paramètres

left(\mu_{1}, \sigma_{1}^{2}\right) \ et \ \left(\mu_{2}, \sigma_{2}^{2}\right)

puis pour la somme des variables aléatoires X+Y avec des paramètres

\mu_{1}+\mu_{2} \ et \ \sigma_{1}^{2}+\sigma_{2}^{2}

donc la fonction génératrice du moment sera

\begin{aligned} M_{X+Y}(t) &=M_{X}(t) M_{Y}(t) \\ &=e^{\left\{\frac{\sigma_{1}^ {2} t^{2}}{2}+\mu_{1} t\right\} \exp \left\{\frac{\sigma_{2}^{2} t^{2}}{2} +\mu_{2} t\right\}} \\ &=e^{\left\{\frac{\left(\sigma_{1}^{2}+\sigma_{2}^{2}\right ) t^{2}}{2}+\left(\mu_{1}+\mu_{2}\right) t\right\}} \end{aligned}

qui est une fonction génératrice de moment avec moyenne et variance additives.

Somme du nombre aléatoire de variables aléatoires

Pour trouver la fonction génératrice du moment de la somme du nombre aléatoire de variables aléatoires supposons la variable aléatoire

Y=\somme_{i=1}^{N} X_{i

où les variables aléatoires X1,X2, … sont des séquences de variables aléatoires de tout type, indépendantes et distribuées de manière identique, alors la fonction génératrice du moment sera

\begin{aligned} E\left[\exp \left\{t \sum_{1}^{N} X_{i}\right\} \mid N=n\right] &=E\left[\exp \ left\{t \sum_{1}^{n} X_{i}\right\} \mid N=n\right] \\ &=E\left[\exp \left\{t \sum_{1}^ {n} X_{i}\right\}\right] \\ &=\left[M_{X}(t)\right]^{n} \end{aligned}

\text{where }MX(t)=E\left[e^{t X_{i}}\right]\\ \text{Donc } E\left[e^{t Y} \mid N\right]= \left(M_{X}(t)\right)^{N}\\ M_{Y}(t)=E\left[\left(M_{X}(t)\right)^{N}\right ]

Ce qui donne la fonction génératrice de moment de Y sur la différentiation comme

M_{Y}^{\prime}(t)=E\gauche[N\gauche(M_{X}(t)\droite)^{N-1} M_{X}^{\prime}(t)\ droite]

d'où

\begin{aligned} E[Y] &=M_{Y}^{\prime}(0) \\ &=E\left[N\left(M_{X}(0)\right)^{N-1 } M_{X}^{\prime}(0)\right] \\ &=E[NEX] \\ &=E[N] E[X] \end{aligned}

de la même manière, la différenciation en deux temps donnera

M_{Y}^{\prime \prime}(t)=E\left[N(N-1)\left(M_{X}(t)\right)^{N-2}\left(M_{X }^{\prime}(t)\right)^{2}+N\left(M_{X}(t)\right)^{N-1} M_{X}^{\prime \prime}(t )\droite]

Qui donnent

\begin{aligned} E\left[Y^{2}\right] &=M_{Y}^{\prime \prime}(0) \\ &=E\left[N(N-1)(E[ X])^{2}+NE\gauche[X^{2}\droite]\droite] \\ &=(E[X])^{2}\gauche(E\gauche[N^{2}\ right]-E[N]\right)+E[N] E\left[X^{2}\right] \\ &=E[N]\left(E\left[X^{2}\right] -(E[X])^{2}\right)+(E[X])^{2} E\left[N^{2}\right] \\ &=E[N] \operatorname{Var} (X)+(E[X])^{2} E\gauche[N^{2}\droite] \end{aligné}

donc l'écart sera

\begin{aligned} \operatorname{Var}(Y) &=E[N] \operatorname{Var}(X)+(E[X])^{2}\left(E\left[N^{2} \right]-(E[N])^{2}\right) \\ &=E[N] \operatorname{Var}(X)+(E[X])^{2} \operatorname{Var}( N) \end{aligné}

Exemple de variable aléatoire chi carré

Calculer la fonction génératrice de moment de la variable aléatoire Chi-carré avec n degrés de liberté.

Solution : considérons la variable aléatoire du Chi carré avec le n degré de liberté pour

Z_{1}^{2}+\cdots+Z_{n}^{2}

la séquence de variables normales standard, alors la fonction génératrice de moment sera

M(t)=\gauche(E\gauche[e^{t Z^{2}}\droite]\droite)^{n}

donc ça donne

\begin{aligned} E\left[e^{t Z^{2}}\right] &=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{tx^{2}} e^{-x^{2} / 2} dx \\ &=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\ infty} e^{-x^{2} / 2 \sigma^{2}} dx \quad \text { où } \sigma^{2}=(1-2 t)^{-1} \\ &= \sigma \\ &=(1-2 t)^{-1 / 2} \end{aligné}

la densité normale de moyenne 0 et de variance2 s'intègre à 1

M(t)=(1-2 t)^{-n/2}

qui est la fonction génératrice de moment requise de n degrés de liberté.

Exemple de variable aléatoire uniforme

Trouver la fonction génératrice du moment de la variable aléatoire X qui est distribuée binomialement avec les paramètres n et p étant donné la variable aléatoire conditionnelle Y=p sur l'intervalle (0,1)

Solution : Pour trouver la fonction génératrice de moment de la variable aléatoire X étant donné Y

E\left[e^{XX} \mid Y=p\right]=\left(pe^{t}+1-p\right)^{n}

en utilisant la distribution binomiale, sin Y est la variable aléatoire uniforme sur l'intervalle (0,1)

\begin{array}{l} E\left[e^{t X}\right]=\int_{0}^{1}\left(pe^{t}+1-p\right)^{n} dp \\=\frac{1}{e^{t}-1} \int_{1}^{e^{t}} y^{n} dy\\ =\frac{1}{n+1} \frac{e^{t(n+1)}-1}{e^{t}-1} \\ =\frac{1}{n+1}\left(1+e^{t}+e ^{2 t}+\cdots+e^{nt}\right) \end{array} \\\text{en remplaçant }\left.y=pe^{t}+1-p\right)

Fonction génératrice de moment articulaire

La fonction génératrice du moment conjoint pour le nombre n de variables aléatoires X1,X2,…,Xn

M\left(t_{1}, \ldots, t_{n}\right)=E\left[e^{t_{1} X_{1}+\cdots+t_{n} X_{n}}\right ]

où t1,t2,……tn sont les nombres réels, à partir de la fonction génératrice de moment conjoint, nous pouvons trouver la fonction génératrice de moment individuel comme

M_{X_{i}}(t)=E\gauche[e^{t X_{i}}\droite]=M(0, \ldots, 0, t, 0, \ldots, 0)

Théorème : Les variables aléatoires X1,X2,…,Xn sont indépendants si et seulement si la fonction génératrice de l'élément conjoint

M\left(t_{1}, \ldots, t_{n}\right)=M X_{1}\left(t_{1}\right) \cdots M X_{n}\left(t_{n}\ droite)

Preuve : Supposons que les variables aléatoires X1,X2,…,Xn sont indépendants alors

\begin{aligned} M\left(t_{1}, \ldots, t_{n}\right) &=E\left[e^{\left(t_{1} X_{1}+\cdots+t_{ n} X_{n}\right)}\right] \\ &=E\left[e^{t_{1} X_{1}} \ldots e^{t_{n} X_{n}}\right] \\ &=E\left[e^{t_{1} X_{1}}\right] \cdots E\left[e^{t_{n} X_{n}}\right] \quad \text { by indépendance } \\ &=M_{X_{1}}\left(t_{1}\right) \cdots M_{X_{n}}\left(t_{n}\right) \end{aligned}

Supposons maintenant que la fonction génératrice du moment articulaire satisfait l'équation

M\left(t_{1}, \ldots, t_{n}\right)=M X_{1}\left(t_{1}\right) \cdots M X_{n}\left(t_{n}\ droite)

  • prouver les variables aléatoires X1,X2,…,Xn sont indépendants, nous avons le résultat que la fonction génératrice de moment conjoint donne uniquement la distribution conjointe (c'est un autre résultat important qui nécessite une preuve), nous devons donc avoir une distribution conjointe qui montre que les variables aléatoires sont indépendantes, d'où la condition nécessaire et suffisante prouvée.

Exemple de fonction génératrice de moment conjoint

1.Calculer la fonction génératrice du moment articulaire des variables aléatoires X+Y et XY

Solution : Étant donné que la somme des variables aléatoires X+Y et la soustraction des variables aléatoires XY sont indépendantes comme pour les variables aléatoires indépendantes X et Y, la fonction génératrice du moment conjoint pour celles-ci sera donc

\begin{aligned} E\left[e^{n(X+Y)+s(XY)}\right] &=E\left[e^{(t+s) X+(ts) Y}\right] \\ &=E\gauche[e^{(t+s) X}\right] E\gauche[e^{(ts) Y}\right] \\ &=e^{\mu(t+s) +\sigma^{2}(t+s)^{2} / 2} e^{\mu(ts)+\sigma^{2}(ts)^{2} / 2} \\ &=e^ {2 \mu t+\sigma^{2} t^{2}} e^{\sigma^{2} s^{2}} \end{aligned}

comme cette fonction génératrice de moment détermine la distribution conjointe, nous pouvons donc avoir X+Y et XY des variables aléatoires indépendantes.

2. Considérer pour l'expérience le nombre d'événements comptés et non comptés distribués par la distribution de Poisson avec probabilité p et la moyenne , montrer que le nombre d'événements comptés et non comptés sont indépendants avec les moyennes respectives λp et λ(1-p).

Solution : On considérera X comme le nombre d'événements et Xc le nombre d'événements comptés donc le nombre d'événements non comptés est XXc, la fonction de génération de moment articulaire générera un moment

\begin{aligned} E\left[e^{\kappa X_{\varepsilon}+t\left(X-X_{c}\right)} \mid X=n\right] &=e^{\ln } E\gauche[e^{(st) X_{c}} \mid X=n\right] \\ &=e^{in}\left(pe^{st}+1-p\right)^{n } \\ &=\left(pe^{s}+(1-p) e^{t}\right)^{n} \end{aligned}

et par le moment génératrice de la fonction de distribution binomiale

E\left[e^{s X_{\varepsilon}+t\left(X-X_{\varepsilon}\right)} \mid X\right]=\left(pe^{s}+(1-p) e^{t}\droit)^{X}

et en supprimant les attentes, ceux-ci donneront

E\left[e^{\sum X_{c}+t\left(X-X_{c}\right)}\right]=E\left[\left(pe^{s}+(1-p) e^{t}\right)^{X}\right]\\ \begin{aligned} E\left[e^{s X_{c}+t\left(X-X_{c}\right)}\ right] &=e^{\lambda\left(pe^{\prime}+(1-p) e^{t}-1\right)} \\ &=e^{\lambda p\left(e^ {c-1}\right)} e^{\lambda(1-p)\left(e^{t}-1\right)} \end{aligned}

Conclusion:

En utilisant la définition standard de la fonction génératrice de moment, les moments pour les différentes distributions telles que binomiale, poisson, normale, etc. exemples appropriés, si vous avez besoin de lectures supplémentaires, parcourez les livres ci-dessous.

Pour plus d'articles sur les mathématiques, veuillez consulter notre Page de mathématiques.

Un premier cours de probabilité par Sheldon Ross

Les grandes lignes de la probabilité et des statistiques de Schaum

Une introduction aux probabilités et aux statistiques par ROHATGI et SALEH

À propos de DR. MOHAMMED MAZHAR UL HAQUE

Je suis DR. Mohammed Mazhar Ul Haque , Maître de Conférences en Mathématiques. Ayant 12 ans d'expérience dans l'enseignement. Avoir de vastes connaissances en Mathématiques Pures, précisément en Algèbre. Avoir l'immense capacité de concevoir et de résoudre des problèmes. Capable de motiver les candidats pour améliorer leurs performances.
J'aime contribuer à Lambdageeks pour rendre les mathématiques simples, intéressantes et explicites pour les débutants comme pour les experts.
Connectons-nous via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Geeks Lambda