Funció generatriu de moments

En Teoria de la probabilitat i Estadística, la funció generatriu de moments o funció generadora de moments d'una variable aleatòria és una funció que conté tota la informació de les propietats probabilístiques de la variable. En comparació amb la funció característica, té l'avantatge que al ser una funció real de variable real es pot treballar amb eines més elementals; però, d'altra banda, atès que hi ha variables que no tenen funció generatriu de moments, els resultats que s'obtenen són menys generals.

A més de caracteritzar la distribució de probabilitat, la funció generatriu de moments té molt bones propietats en relació amb la suma de variables aleatòries independents i amb la convergència en distribució.

Definició i exemples

Sigui X {\displaystyle X} una variable aleatòria. La funció generatriu de moments (f.g.m.) de X {\displaystyle X} en el punt t R {\displaystyle t\in \mathbb {R} } , que designarem per M ( t ) {\displaystyle M(t)} o per M X ( t ) {\displaystyle M_{X}(t)} , es defineix [1][2]per M ( t ) = E [ e t X ] , {\displaystyle M(t)=E{\big [}e^{tX}{\big ]},} sempre que aquesta esperança sigui finita. Atès que e t X > 0 {\displaystyle e^{tX}>0} , l'esperança anterior sempre es pot calcular, però pot donar infinit. Quan és finita en un entorn de 0 (o en un conjunt més gran que inclogui un entorn de 0), es diu que la variable aleatòria té funció generatriu de moments.

Si X {\displaystyle X} és discreta, que pren valors x 1 , x 2 , {\displaystyle x_{1},x_{2},\dots } amb probabilitats p j = P ( X = x j ) {\displaystyle p_{j}=P(X=x_{j})} , llavors, M ( t ) = j e t x j p j , {\displaystyle M(t)=\sum _{j}e^{tx_{j}}p_{j},} sempre que la sèrie anterior sigui convergent.

Si X {\displaystyle X} és contínua amb funció de densitat f {\displaystyle f} , llavors, M ( t ) = e t x f ( x ) d x , {\displaystyle M(t)=\int _{-\infty }^{\infty }e^{tx}\,f(x)\,dx,} sempre que aquesta integral sigui convergent.

Exemples

Exemple 1. Sigui X {\displaystyle X} una variable aleatòria binomial X B ( n , p ) {\displaystyle X\sim B(n,p)} . Escrivim q = 1 p {\displaystyle q=1-p} . Llavors M ( t ) = j = 0 n e j t ( n j ) p j q n j = j = 0 n ( n j ) ( e t p ) j q n j = ( p e t + q ) n , {\displaystyle M(t)=\sum _{j=0}^{n}e^{jt}{\binom {n}{j}}p^{j}q^{n-j}=\sum _{j=0}^{n}{\binom {n}{j}}(e^{t}p)^{j}q^{n-j}=(pe^{t}+q)^{n},} que és finita per a qualsevol t R {\displaystyle t\in \mathbb {R} } . Així, la f.g.m. de X {\displaystyle X} és M ( t ) = ( p e t + q ) n , t R . {\displaystyle M(t)=(pe^{t}+q)^{n},\quad t\in \mathbb {R} .}
Exemple 2. Sigui X {\displaystyle X} una variable exponencial amb paràmetre λ > 0 {\displaystyle \lambda >0} ,amb funció de densitat f ( x ) = { λ e λ x , si  x 0 , 0 , en cas contrari. {\displaystyle f(x)={\begin{cases}\lambda e^{-\lambda x},&{\text{si }}x\geq 0,\\0,&{\text{en cas contrari.}}\end{cases}}} Aleshores M ( t ) = λ 0 e t x e λ x d x = λ 0 e ( λ t ) x d x = { λ λ t , si  t < λ + , en cas contrari. {\displaystyle M(t)=\lambda \int _{0}^{\infty }e^{tx}e^{-\lambda x}\,dx=\lambda \int _{0}^{\infty }e^{-(\lambda -t)x}\,dx={\begin{cases}{\dfrac {\lambda }{\lambda -t}},&{\text{si }}t<\lambda \\\\+\infty ,&{\text{en cas contrari.}}\end{cases}}} Així, M {\displaystyle M} només està definida per t < λ {\displaystyle t<\lambda } ; concretament, la f.g.m. és M ( t ) = λ λ t , t ( , λ ) . {\displaystyle M(t)={\frac {\lambda }{\lambda -t}},\quad t\in (-\infty ,\lambda ).}
Exemple 3. Sigui X {\displaystyle X} una variable aleatòria amb distribució de Cauchy C ( 0 , 1 ) {\displaystyle {\mathcal {C}}(0,1)} amb funció de densitat f ( x ) = 1 π 1 x 2 + 1 ,   x R . {\displaystyle f(x)={\frac {1}{\pi }}\,{\frac {1}{x^{2}+1}},\ \quad x\in \mathbb {R} .} Aleshores, per qualsevol t 0 {\displaystyle t\neq 0} , E [ e t X ] = 1 π e t x x 2 + 1 d x 1 π 0 e t x x 2 + 1 d x t π 0 x x 2 + 1 d x = . {\displaystyle E[e^{tX}]={\frac {1}{\pi }}\int _{-\infty }^{\infty }{\frac {e^{tx}}{x^{2}+1}}\,dx\geq {\frac {1}{\pi }}\int _{0}^{\infty }{\frac {e^{tx}}{x^{2}+1}}\,dx\geq {\frac {t}{\pi }}\int _{0}^{\infty }{\frac {x}{x^{2}+1}}\,dx=\infty .} Per tant, X {\displaystyle X} no té f.g.m.

Remarca. Tal com hem dit a la definició, sempre que es diu que una variable aleatòria té f.g.m. es sobreentén que té f.g.m. en un entorn de zero o un conjunt que contingui un entorn de zero.

Propietats

Funció generatriu de moments d'una transformació afí d'una variable aleatòria

Sigui X {\displaystyle X} una variable aleatòria amb f.g.m. M X {\displaystyle M_{X}} en un entorn de zero ( t 0 , t 0 ) {\displaystyle (-t_{0},t_{0})} , amb t 0 > 0 {\displaystyle t_{0}>0} . Aleshores [2] la variable aleatòria M Y ( t ) = a X + b , {\displaystyle M_{Y}(t)=aX+b,} amb a 0 {\displaystyle a\neq 0} , té f.g.m. M Y ( t ) = e b t M X ( a t ) , t ( t 0 a , t 0 a ) . {\displaystyle M_{Y}(t)=e^{bt}\,M_{X}(at),\quad t\in {\big (}-{\tfrac {t_{0}}{a}},{\tfrac {t_{0}}{a}}{\big )}.}

Funció generatriu de moments i moments

Aquesta propietat estableix el lligam entre la f.g.m d'una variable aleatòria i els seus moments, i d'aquí ve el nom d'aquesta funció.

Sigui X {\displaystyle X} una variable aleatòria amb f.g.m. M {\displaystyle M} en un entorn de zero ( t 0 , t 0 ) {\displaystyle (-t_{0},t_{0})} , amb t 0 > 0 {\displaystyle t_{0}>0} . Aleshores [3]

  1. La variable X {\displaystyle X} té moments de tots els ordres. Designarem el moment d'ordre n {\displaystyle n} per m n {\displaystyle m_{n}} : m n = E [ X n ] . {\displaystyle m_{n}=E[X^{n}].}
  2. La f.g.m. M {\displaystyle M} és infinitament diferenciable i M ( n ) ( 0 ) = m n . {\displaystyle M^{(n)}(0)=m_{n}.}
  3. La f.g.m. M {\displaystyle M} es pot desenvolupar en sèrie de MacLaurin: M ( t ) = n = 0 t n n ! m n , t ( t 0 , t 0 ) . {\displaystyle M(t)=\sum _{n=0}^{\infty }{\frac {t^{n}}{n!}}\,m_{n},\quad t\in (-t_{0},t_{0}).}
  4. Més generalment,[4] la f.g.m. M {\displaystyle M} es pot desenvolupar en sèrie de Taylor en tot punt c ( t 0 , t 0 ) {\displaystyle c\in (-t_{0},t_{0})} M ( t ) = n = 0 ( t c ) n n ! E [ X n e c t ] , t U c , {\displaystyle M(t)=\sum _{n=0}^{\infty }{\frac {(t-c)^{n}}{n!}}\,E[X^{n}e^{ct}],\quad t\in U_{c},} on U c {\displaystyle U_{c}} és un entorn de c {\displaystyle c} tal que U c ( t 0 , t 0 ) {\displaystyle U_{c}\subset (-t_{0},t_{0})} . Es diu que M {\displaystyle M} és una funció analítica (real) en ( t 0 , t 0 ) {\displaystyle (-t_{0},t_{0})} .
Demostracions
Demostració de la propietat 1. Del desenvolupament de la funció exponencial en sèrie de Taylor tenim que e | t X | = n = 0 | t | n | X | n n ! , {\displaystyle e^{\vert tX\vert }=\sum _{n=0}^{\infty }{\frac {\vert t\vert ^{n}\,\vert X\vert ^{n}}{n!}},} i tots els termes de la sèrie són positius. Per tant, | t | n | X | n n ! e | t X | e t X + e t X . {\displaystyle {\frac {\vert t\vert ^{n}\,\vert X\vert ^{n}}{n!}}\leq e^{\vert tX\vert }\leq e^{tX}+e^{-tX}.} Però per a t ( t 0 , t 0 ) {\displaystyle t\in (-t_{0},t_{0})} , E [ e t X ] < i E [ e t X ] < . {\displaystyle E{\big [}e^{tX}{\big ]}<\infty \quad {\text{i}}\quad E{\big [}e^{-tX}{\big ]}<\infty .} D'on resulta la propietat. Les propietats 2 i 3 es dedueixen de la propietat 4.

Demostració de la propietat 4. Fixem c ( t 0 , t 0 ) {\displaystyle c\in (-t_{0},t_{0})} . Desenvolupem en serie de Taylor la funció e t X {\displaystyle e^{tX}} en el punt t = c {\displaystyle t=c} : e t X = n = 0 ( t c ) n n ! X n e c X . {\displaystyle e^{tX}=\sum _{n=0}^{\infty }{\frac {(t-c)^{n}}{n!}}\,X^{n}e^{cX}.} Ara traiem esperances i commutem l'esperança amb la sèrie, amb la qual cosa E [ e t X ] = E [ n = 0 ( t c ) n n ! X n e c X ] = ( ) n = 0 ( t c ) n n ! E [ X n e c X ] . {\displaystyle E{\big [}e^{tX}{\big ]}=E{\Big [}\sum _{n=0}^{\infty }{\frac {(t-c)^{n}}{n!}}\,X^{n}e^{cX}{\Big ]}\,{\underset {(*)}{=}}\,\sum _{n=0}^{\infty }{\frac {(t-c)^{n}}{n!}}\,E{\big [}X^{n}e^{cX}{\big ]}.} Per demostrar que el pas (*) és correcte, sigui ε = t 0 | c | > 0 {\displaystyle \varepsilon =t_{0}-\vert c\vert >0} , posem U c = ( c ε / 2 , c + ε / 2 ) ( t 0 , t 0 ) {\displaystyle U_{c}=(c-\varepsilon /2,c+\varepsilon /2)\subset (-t_{0},t_{0})} i prenem t U c {\displaystyle t\in U_{c}} . Per a qualsevol N 1 {\displaystyle N\geq 1} , Raonant com a la demostració de l'apartat 1, tenim que | n = 0 N ( t c ) n n ! X n e c X | n = 0 N | t c | n n ! | X n | e | c X | e | c X | n = 0 N | t c | n n ! | X n | e | c X | e | t c | | X | = e ( | c | + | t c | ) | X | e ( | c | + ε 2 ) | X | . {\displaystyle {\Big \vert }\sum _{n=0}^{N}{\frac {(t-c)^{n}}{n!}}\,X^{n}e^{cX}{\Big \vert }\leq \sum _{n=0}^{N}{\frac {\vert t-c\vert ^{n}}{n!}}\,{\big \vert }X^{n}{\big \vert }e^{\vert cX\vert }\leq e^{\vert cX\vert }\sum _{n=0}^{N}{\frac {\vert t-c\vert ^{n}}{n!}}\,{\big \vert }X^{n}{\big \vert }\leq e^{\vert cX\vert }e^{\vert t-c\vert \,\vert X\vert }=e^{(\vert c\vert +\vert t-c\vert )\,\vert X\vert }\leq e^{(\vert c\vert +{\frac {\varepsilon }{2}})\,\vert X\vert }.} E [ e ( | c | + ε 2 ) | X | ] < . {\displaystyle E{\Big [}e^{(\vert c\vert +{\frac {\varepsilon }{2}})\,\vert X\vert }{\Big ]}<\infty .} Llavors, pel teorema de convergència dominada s'obté (*).

Cal notar que a l'apartat 3, atès que c = 0 {\displaystyle c=0} , es pot prendre U c = ( t 0 , t 0 ) {\displaystyle U_{c}=(-t_{0},t_{0})} .


Exemple 4. Continuant amb l'exemple 2 de més amunt, X {\displaystyle X} una variable exponencial amb paràmetre λ > 0 {\displaystyle \lambda >0} . Havíem calculat que la f.g.m. és M ( t ) = λ λ t = 1 1 t λ , t ( , λ ) . {\displaystyle M(t)={\frac {\lambda }{\lambda -t}}={\frac {1}{1-{\dfrac {t}{\lambda }}}},\quad t\in (-\infty ,\lambda ).} Per a t ( λ , λ ) {\displaystyle t\in (-\lambda ,\lambda )} , tenim que t λ ( 1 , 1 ) {\displaystyle {\frac {t}{\lambda }}\in (-1,1)} , i llavors l'expressió 1 / ( 1 t / λ ) {\displaystyle 1/(1-t/\lambda )} és la suma d'una sèrie geomètrica de raó en valor absolut menor que 1: M ( t ) = 1 1 t λ = n = 0 t n λ n , t ( λ , λ ) {\displaystyle M(t)={\frac {1}{1-{\dfrac {t}{\lambda }}}}=\sum _{n=0}^{\infty }{\frac {t^{n}}{\lambda ^{n}}},\quad t\in (-\lambda ,\lambda )} En conseqüència, atès que el desenvolupament en sèrie de potències és únic, comparant aquesta fórmula amb la donada a la propietat 3, deduïm que els moments de X {\displaystyle X} són m n = n ! λ n . {\displaystyle m_{n}={\frac {n!}{\lambda ^{n}}}.}

Funció generatriu i suma de variables independents

Siguin X 1 , , X k {\displaystyle X_{1},\dots ,X_{k}} variables aleatòries independents, amb f.g.m. M X 1 , , M X k {\displaystyle M_{X_{1}},\dots ,M_{X_{k}}} respectivament. Aleshores [2] la variable aleatòria S = X 1 + + X k {\displaystyle S=X_{1}+\cdots +X_{k}} té f.g.m. M S {\displaystyle M_{S}} que val M S ( t ) = M X 1 ( t ) M X k ( t ) . {\displaystyle M_{S}(t)=M_{X_{1}}(t)\cdots M_{X_{k}}(t).}

La funció generatriu de moments determina la distribució de la variable aleatòria

Siguin X {\displaystyle X} i Y {\displaystyle Y} dues variables aleatòries amb f.g.m. M X {\displaystyle M_{X}} i M Y {\displaystyle M_{Y}} respectivament. Si per algun ε > 0 {\displaystyle \varepsilon >0} , M X ( t ) = M Y ( t ) , per a tot  t ( ε , ε ) , {\displaystyle M_{X}(t)=M_{Y}(t),\quad {\text{per a tot }}t\in (-\varepsilon ,\varepsilon ),} aleshores X {\displaystyle X} i Y {\displaystyle Y} tenen la mateixa distribució de probabilitat.[2][5]

Per a la demostració, vegeu l'apartat Extensió al camp complex més avall.

Funció generatriu de moments i convergència en distribució

Sigui X 1 , X 2 , , {\displaystyle X_{1},X_{2},\dots ,} una successió de variables aleatòries amb f.g.m. M X 1 , M X 2 , {\displaystyle M_{X_{1}},M_{X_{2}},\dots } respectivament, definides en ( ε , ε ) {\displaystyle (-\varepsilon ,\varepsilon )} , per algun ε > 0 {\displaystyle \varepsilon >0} . Suposem que per algun ε ( 0 , ε ) {\displaystyle \varepsilon '\in (0,\varepsilon )} , lim n M X n ( t ) = N ( t ) , per a tot  t [ ε , ε ] , {\displaystyle \lim _{n\to \infty }M_{X_{n}}(t)=N(t),\quad {\text{per a tot }}t\in [-\varepsilon ',\varepsilon '],} on N {\displaystyle N} és una funció (finita) definida en [ ε , ε ] {\displaystyle [-\varepsilon ',\varepsilon ']} . Aleshores existeix una variable aleatòria X {\displaystyle X} tal que lim n X n = X , en distribució {\displaystyle \lim _{n\to \infty }X_{n}=X,\quad {\text{en distribució}}} que té f.g.m. M X {\displaystyle M_{X}} i M X ( t ) = N ( t ) , per a tot  t [ ε , ε ] . {\displaystyle M_{X}(t)=N(t),\quad {\text{per a tot }}t\in [-\varepsilon ',\varepsilon '].} Per a la demostració, vegeu Curtiss.[5]

Una propietat important de les funcions característiques diu que si una successió de variables aleatòries convergeix en distribució a una variable aleatòria, aleshores les funcions característiques de les variables de la successió convergeixen a la funció característica del límit. Aquesta propietat no és certa en general per a funcions generatrius de moments. Curtiss [5] dona un contraexemple.

En general, la convergència en distribució no implica la convergència de les corresponens funcions generatrius de moments
Sigui X n {\displaystyle X_{n}} una variable aleatòria amb funció de densitat f n ( x ) = { k n n 1 + n 2 x 2 , si  x ( n , n ) 0 , en cas contrari, {\displaystyle f_{n}(x)={\begin{cases}k_{n}\,{\dfrac {n}{1+n^{2}x^{2}}},&{\text{si }}x\in (-n,n)\\\\0,&{\text{en cas contrari,}}\end{cases}}} on k n = 1 / ( 2 arctan n 2 ) {\displaystyle k_{n}=1/(2\arctan n^{2})} . Es tracta de la densitat d'una distribució de Cauchy centrada amb paràmetre d'escala γ = 1 / n {\displaystyle \gamma =1/n} , C ( 0 , 1 / n ) {\displaystyle {\mathcal {C}}(0,1/n)} , truncada entre n {\displaystyle -n} i n {\displaystyle -n} , i normalitzada per tal que la seva integral sobre tot R {\displaystyle \mathbb {R} } sigui 1. Nadarajah[6] l'anomena distribució de Cauchy truncada.

La funció de distribució de X n {\displaystyle X_{n}} és

Figura 1. Funció de distribució F n {\displaystyle F_{n}} per a n = 5 {\displaystyle n=5} .
F n ( x ) = { 0 , si  x < n 1 2 + k n arctan ( n x ) , si  n x n , 1 , si  x n . {\displaystyle F_{n}(x)={\begin{cases}0,&{\text{si }}x<-n\\{\frac {1}{2}}+k_{n}\arctan(nx),&{\text{si }}-n\leq x\leq n,\\1,&{\text{si }}x\geq n.\end{cases}}} És clar que lim n F n ( x ) = { 0 , si  x < 0 , 1 , si  x > 0. {\displaystyle \lim _{n\to \infty }F_{n}(x)={\begin{cases}0,&{\text{si }}x<0,\\1,&{\text{si }}x>0.\end{cases}}} Per tant, lim n X n = 0 , en distribució . {\displaystyle \lim _{n\to \infty }X_{n}=0,\quad {\text{en distribució}}.} D'altra banda, la funció generatriu de moments de X n {\displaystyle X_{n}} , que existeix per a tot t R {\displaystyle t\in \mathbb {R} } ja que X n {\displaystyle X_{n}} és afitada, compleix M X n ( t ) = k n n n e t x n 1 + n 2 x 2 d x = k n n 0 e t x n 1 + n 2 x 2 d x + k n 0 n e t x n 1 + n 2 x 2 d x k n 0 n e | t | x n 1 + n 2 x 2 d x k n 0 n | t | 3 x 3 3 ! n 1 + n 2 x 2 d x . {\displaystyle {\begin{aligned}M_{X_{n}}(t)&=k_{n}\int _{-n}^{n}e^{tx}\,{\frac {n}{1+n^{2}x^{2}}}\,dx=k_{n}\int _{-n}^{0}e^{tx}\,{\frac {n}{1+n^{2}x^{2}}}\,dx+k_{n}\int _{0}^{n}e^{tx}\,{\frac {n}{1+n^{2}x^{2}}}\,dx\\&\geq k_{n}\int _{0}^{n}e^{\vert t\vert x}\,{\frac {n}{1+n^{2}x^{2}}}\,dx\geq k_{n}\int _{0}^{n}{\frac {\vert t\vert ^{3}x^{3}}{3!}}\,{\frac {n}{1+n^{2}x^{2}}}\,dx.\end{aligned}}} Es comprova, calculant la integral de la dreta, que per qualsevol t 0 {\displaystyle t\neq 0} , lim n M X n ( t ) = . {\displaystyle \lim _{n\to \infty }M_{X_{n}}(t)=\infty .} Però la funció generatriu del límit de la successió és M X ( t ) = 1 ,   per a tot  t R . {\displaystyle M_{X}(t)=1,\ {\text{per a tot }}t\in \mathbb {R} .}

Domini de la funció generatriu de moments

Sigui X {\displaystyle X} una variable aleatòria amb f.g.m. M {\displaystyle M} . S'anomena domini de la f.g.m.,[4] i es designa per D M {\displaystyle D_{M}} , al conjunt D M = { t R : E [ e t X ] < } . {\displaystyle D_{M}=\{t\in \mathbb {R} :\,E{\big [}e^{tX}{\big ]}<\infty \}.} El conjunt D M {\displaystyle D_{M}} és un interval, finit o infinit, que conté el 0.

En efecte, en primer lloc, com que per t = 0 {\displaystyle t=0} , E [ e t X ] = E [ 1 ] = 1 {\displaystyle E[e^{tX}]=E[1]=1} , tenim que 0 D M {\displaystyle 0\in D_{M}} . Ara, si s , t D M {\displaystyle s,t\in D_{M}} , i prenem λ ( 0 , 1 ) {\displaystyle \lambda \in (0,1)} , per la desigualtat de Hölder amb p = 1 / λ {\displaystyle p=1/\lambda } i q = 1 / ( 1 λ ) {\displaystyle q=1/(1-\lambda )} tenim que E [ e ( λ s + ( 1 λ ) t ) X ] = E [ e λ s X e ( 1 λ ) t X ] ( E [ e s X ] ) λ ( E [ e t X ] ) 1 λ < . {\displaystyle E{\Big [}e^{{\big (}\lambda s+(1-\lambda )t{\big )}X}{\Big ]}=E{\Big [}e^{\lambda sX}\,e^{(1-\lambda )tX}{\Big ]}\leq {\Big (}E{\big [}e^{sX}{\big ]}{\Big )}^{\lambda }\,{\Big (}E{\big [}e^{tX}{\big ]}{\Big )}^{1-\lambda }<\infty .} Per tant, λ s + ( 1 λ t ) D M {\displaystyle \lambda s+(1-\lambda t)\in D_{M}} . D'on es dedueix que D M {\displaystyle D_{M}} ha de ser un interval.

Extensió al camp complex. La transformada de Laplace

Recordem que una variable aleatòria a valors complexos és una expressió de la forma Y = Y 1 + i Y 2 , {\displaystyle Y=Y_{1}+i\,Y_{2},} on Y 1 {\displaystyle Y_{1}} i Y 2 {\displaystyle Y_{2}} són variables aleatòries ordinàries. Si ambdues Y 1 {\displaystyle Y_{1}} i Y 2 {\displaystyle Y_{2}} tenen esperança, aleshores es defineix l'esperança de Y {\displaystyle Y} per E [ Y ] = E [ Y 1 ] + i E [ Y 2 ] . {\displaystyle E[Y]=E[Y_{1}]+i\,E[Y_{2}].} Designem per | y | = y 1 2 + y 2 2 {\displaystyle \vert y\vert ={\sqrt {y_{1}^{2}+y_{2}^{2}}}} el mòdul d'un nombre complex y = y 1 + i y 2 {\displaystyle y=y_{1}+i\,y_{2}} , llavors, la condició per tal que Y {\displaystyle Y} tingui esperança és E [ | Y | ] < , {\displaystyle E[\vert Y\vert ]<\infty ,} ja que max ( | Y 1 | , | Y 2 | ) | Y | | Y 1 | + | Y 2 | . {\displaystyle \max(\vert Y_{1}\vert ,\vert Y_{2}\vert )\leq \vert Y\vert \leq \vert Y_{1}\vert +\vert Y_{2}\vert .}

Sigui X {\displaystyle X} una variable aleatòria. S'anomena transformada de Laplace [4][5] de X {\displaystyle X} en el punt z C {\displaystyle z\in \mathbb {C} } a L ( z ) = E [ e z X ] , {\displaystyle L(z)=E[e^{zX}],} sempre que aquesta esperança existeixi, és a dir, E [ | e z X | ] < . {\displaystyle E{\Big [}{\big \vert }e^{zX}{\big \vert }{\Big ]}<\infty .} Cal notar que si X {\displaystyle X} té funció de densitat f {\displaystyle f} , aleshores L ( z ) = e z x f ( x ) d x , {\displaystyle L(z)=\int _{-\infty }^{\infty }e^{zx}\,f(x)\,dx,} que és la transformada de Laplace bilateral ordinària de la funció f {\displaystyle f} , a part del signe de l'exponent, que en probabilitats es pren positiu per coherència amb les altres notacions. En el cas general, si X {\displaystyle X} té funció de distribució F {\displaystyle F} , llavors L ( z ) = e z x d F ( x ) , {\displaystyle L(z)=\int _{-\infty }^{\infty }e^{zx}\,dF(x),} on la integral de la dreta és una integral de Lebesgue-Stieltjes, i que és la transformada de Laplace bilateral clàssica (excepte el signe de l'exponent); per les propietats de la transformada de Laplace en aquest context general veieu el clàssic llibre de Widder .[7]

Exemple 5. Continuem amb la distribució exponencial de paràmetre λ {\displaystyle \lambda } de l'exemple 2. Llavors E [ e z X ] = λ 0 e z x e λ x d x , {\displaystyle E{\big [}e^{zX}{\big ]}=\lambda \int _{0}^{\infty }e^{zx}e^{-\lambda x}\,dx,} i la integral de la dreta és la transformada de Laplace clàssica de la funció e λ x {\displaystyle e^{-\lambda x}} en el punt z {\displaystyle -z} . Llavor s'obté (veieu [8] per al càlcul d'aquesta transformada de Laplace) L ( z ) = λ λ z ,   per a  z C   tal que  Re ( z ) > λ , {\displaystyle L(z)={\frac {\lambda }{\lambda -z}},\ \quad {\text{per a }}z\in \mathbb {C} \ {\text{tal que }}{\text{Re}}(z)>\lambda ,} on Re ( z ) {\displaystyle {\text{Re}}(z)} és la part real del nombre complex z {\displaystyle z} .

Domini de la transformada de Laplace

Figura 2. Franja del pla complex a < Re ( z ) < b {\displaystyle a<{\text{Re}}(z)<b} (en verd).

Sigui y = y 1 + i y 2 C {\displaystyle y=y_{1}+i\,y_{2}\in \mathbb {C} } . Llavors, | e y | = | e y 1 | | e i y 2 | = e y 1 , {\displaystyle \vert e^{y}\vert =\vert e^{y_{1}}\vert \,\vert e^{iy_{2}}\vert =e^{y_{1}},} on hem utilitzat la fórmula d'Euler, e i t = cos t + i sin t , t R , {\displaystyle e^{it}=\cos t+i\,\sin t,\quad t\in \mathbb {R} ,} per deduir que el número complex e i t {\displaystyle e^{it}} està sobre la circumferència unitat i, per tant, té mòdul 1.

Retornant a la transformada de Laplace, tenim que E [ e z X ] < E [ e Re ( z ) X ] < . {\displaystyle E{\big [}e^{zX}{\big ]}<\infty \quad \Longleftrightarrow \quad E{\big [}e^{{\text{Re}}(z)X}{\big ]}<\infty .} Llavors, si designem per D L {\displaystyle D_{L}} el domini de la transformada de Laplace: D L = { z C :   E [ | e z X | ] < } , {\displaystyle D_{L}={\big \{}z\in \mathbb {C} :\ E{\big [}\vert e^{zX}\vert {\big ]}<\infty {\big \}},} tindrem que z D L Re ( z ) D M . {\displaystyle z\in D_{L}\quad \Longleftrightarrow \quad {\text{Re}}(z)\in D_{M}.}

Llavors, si, per exemple, D M = ( a , b ) {\displaystyle D_{M}=(a,b)} amb a < 0 < b {\displaystyle a<0<b} , D L {\displaystyle D_{L}} serà la franja del pla complex formada per z C {\displaystyle z\in \mathbb {C} } tals que a < Re ( z ) < b {\displaystyle a<{\text{Re}}(z)<b} , la qual inclourà l'eix imaginari { i y , y R } {\displaystyle \{i\,y,\quad y\in \mathbb {R} \}} , vegeu la Figura 2.

Relacions entre la funció generatriu de moments, la transformada de Laplace i la funció característica.

Sigui X {\displaystyle X} una variable aleatòria amb funció generatriu de moments M {\displaystyle M} en ( ε , ε ) {\displaystyle (-\varepsilon ,\varepsilon )} per a ε > 0 {\displaystyle \varepsilon >0} . Tal com hem comentat, la transformada de Laplace L {\displaystyle L} existirà en la franja { z C :   Re ( z ) ( ε , ε ) } {\displaystyle \{z\in \mathbb {C} :\ {\text{Re}}(z)\in (-\varepsilon ,\varepsilon )\}} i, òbviament, M ( t ) = L ( t ) , per a tot  t ( ε , ε ) . {\displaystyle M(t)=L(t),\quad {\text{per a tot }}t\in (\varepsilon ,\varepsilon ).} D'altra banda, si designem per φ {\displaystyle \varphi } la funció característica de X {\displaystyle X} , φ ( t ) = E [ e i t X ] , t R , {\displaystyle \varphi (t)=E[e^{itX}],\quad t\in \mathbb {R} ,} atès que i t D L {\displaystyle it\in D_{L}} , tindrem que φ ( t ) = L ( i t ) , per a tot  t R . {\displaystyle \varphi (t)=L(it),\quad {\text{per a tot }}t\in \mathbb {R} .}

Demostració de la propietat que la funció generatriu de moments determina la distribució de la variable aleatòria
Aquesta demostració és de Curtiss [5] i utilitza el fet que les funcions característiques determinen la llei d'una variable aleatòria. Siguin X {\displaystyle X} i Y {\displaystyle Y} dues variables aleatòries amb f.g.m. M X {\displaystyle M_{X}} i M Y {\displaystyle M_{Y}} , transformades de Laplace L X {\displaystyle L_{X}} i L Y {\displaystyle L_{Y}} i funcions característiques φ X {\displaystyle \varphi _{X}} i φ Y {\displaystyle \varphi _{Y}} respectivament. Suposem que per a algun ε > 0 {\displaystyle \varepsilon >0} , M X ( t ) = M Y ( t ) , per a tot  t ( ε , ε ) . {\displaystyle M_{X}(t)=M_{Y}(t),\quad {\text{per a tot }}t\in (-\varepsilon ,\varepsilon ).} Aleshores, les transformades de Laplace compliran

L X ( t ) = L Y ( t ) , per a tot  t ( ε , ε ) , {\displaystyle L_{X}(t)=L_{Y}(t),\quad {\text{per a tot }}t\in (-\varepsilon ,\varepsilon ),} i llavors,[9] coincidiran en tot el seu domini d'analicitat:

L X ( z ) = L Y ( z ) , per a tot  z   tal que  Re ( z ) ( ε , ε ) . {\displaystyle L_{X}(z)=L_{Y}(z),\quad {\text{per a tot }}z\ {\text{tal que }}{\text{Re}}(z)\in (-\varepsilon ,\varepsilon ).} Per tant, les funcions característiques compliran φ X ( t ) = φ Y ( t ) , per a tot  t R . {\displaystyle \varphi _{X}(t)=\varphi _{Y}(t),\quad {\text{per a tot }}t\in \mathbb {R} .} D'on les distribucions de X {\displaystyle X} i Y {\displaystyle Y} són iguals.

Cas vectorial

Tots els resultats anteriors s'estenen al cas vectorial de la següent manera. Sigui X = ( X 1 , , X d ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})} un vector aleatori. La funció M X ( t 1 , , t d ) = E [ e t 1 X 1 + + t d X d ] , {\displaystyle M_{\boldsymbol {X}}(t_{1},\dots ,t_{d})=E{\big [}e^{t_{1}X_{1}+\cdots +t_{d}X_{d}}{\big ]},} definida en aquells punts ( t 1 , , t d ) R d {\displaystyle (t_{1},\dots ,t_{d})\in \mathbb {R} ^{d}} on l'esperança de la dreta és finita, s'anomena funció generatriu de moments [10] de X {\displaystyle {\boldsymbol {X}}} . Quan està definida en un entorn de ( 0 , , 0 ) {\displaystyle (0,\dots ,0)} , es diu que el vector aleatori té funció generatriu de moments.

Remarcarem les tres propietats següents que són especialment útils:

Unicitat.[11] Si la funció generatriu de moments d'un vector aleatori està definida en un entorn de ( 0 , , 0 ) {\displaystyle (0,\dots ,0)} , aleshores determina unívocament la distribució d'aquest vector.

Independència.[11] Siguin X = ( X 1 , , X d ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})} i Y = ( Y 1 , , Y r ) {\displaystyle {\boldsymbol {Y}}=(Y_{1},\dots ,Y_{r})} dos vectors aleatoris tal que el vector ( X , Y ) {\displaystyle ({\boldsymbol {X}},{\boldsymbol {Y}})} té funció generatriu de moments definida en un entorn de zero. Aleshores X   i   Y {\displaystyle {\boldsymbol {X}}\ {\text{i}}\ {\boldsymbol {Y}}} són independents si i només si

M ( X , Y ) ( s 1 , , s d , t 1 , , t r ) = M X ( s 1 , , s d ) M Y ( t 1 , , t r ) . {\displaystyle M_{({\boldsymbol {X,Y}})}(s_{1},\dots ,s_{d},t_{1},\dots ,t_{r})=M_{\boldsymbol {X}}(s_{1},\dots ,s_{d})\,M_{\boldsymbol {Y}}(t_{1},\dots ,t_{r}).} Moments.[10] Si un vector aleatori X = ( X 1 , , X d ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})} té funció generatriu de moments en un entorn de ( 0 , , 0 ) {\displaystyle (0,\dots ,0)} , aleshores té moments de tots els ordres i E ( X 1 n 1 X d n d ) = n 1 + + n d t 1 n 1 t d n d M X ( t 1 , t d ) | t 1 = 0 , , t d = 0 . {\displaystyle E(X_{1}^{n_{1}}\cdots X_{d}^{n_{d}})={\frac {\partial ^{n_{1}+\cdots +n_{d}}}{\partial t_{1}^{n_{1}}\cdots \partial t_{d}^{n_{d}}}}\,M_{\boldsymbol {X}}(t_{1}\dots ,t_{d}){\Big \vert }_{t_{1}=0,\dots ,t_{d}=0}.}

Vegeu uns exemples a la secció següent.

Funció generatriu de moments i funcions característiques d'algunes distribucions importants

Distribució Funció generatriu de moments M ( t ) {\displaystyle M(t)} Funció característica φ ( t ) {\displaystyle \varphi (t)}
Degenerada X = a {\displaystyle X=a} e t a {\displaystyle e^{ta}} e i t a {\displaystyle e^{ita}}
Bernoulli P ( X = 1 ) = p {\displaystyle P(X=1)=p} 1 p + p e t {\displaystyle 1-p+pe^{t}} 1 p + p e i t {\displaystyle 1-p+pe^{it}}
Geomètrica (Vegeu nota (1)) p e t 1 ( 1 p ) e t ,   t < ln ( 1 p ) {\displaystyle {\frac {pe^{t}}{1-(1-p)e^{t}}},~t<-\ln(1-p)} p e i t 1 ( 1 p ) e i t {\displaystyle {\frac {pe^{it}}{1-(1-p)\,e^{it}}}}
Binomial B ( n , p ) {\displaystyle B(n,p)} ( 1 p + p e t ) n {\displaystyle \left(1-p+pe^{t}\right)^{n}} ( 1 p + p e i t ) n {\displaystyle \left(1-p+pe^{it}\right)^{n}}
Binomial negativa NB ( r , p ) {\displaystyle \operatorname {NB} (r,p)} ( p 1 e t + p e t ) r ,   t < ln ( 1 p ) {\displaystyle \left({\frac {p}{1-e^{t}+pe^{t}}}\right)^{r},~t<-\ln(1-p)} ( p 1 e i t + p e i t ) r {\displaystyle \left({\frac {p}{1-e^{it}+pe^{it}}}\right)^{r}}
Poisson Pois ( λ ) {\displaystyle \operatorname {Pois} (\lambda )} e λ ( e t 1 ) {\displaystyle e^{\lambda (e^{t}-1)}} e λ ( e i t 1 ) {\displaystyle e^{\lambda (e^{it}-1)}}
Uniforme (contínua) U ( a , b ) {\displaystyle \operatorname {U} (a,b)} e t b e t a t ( b a ) {\displaystyle {\frac {e^{tb}-e^{ta}}{t(b-a)}}} e i t b e i t a i t ( b a ) {\displaystyle {\frac {e^{itb}-e^{ita}}{it(b-a)}}}
Uniforme discreta U ( { a , a + 1 , , b } ) {\displaystyle \operatorname {U} (\{a,a+1,\dots ,b\})} , a , b Z , a < b . {\displaystyle a,\,b\in \mathbb {Z} ,\quad a<b.} e a t e ( b + 1 ) t ( b a + 1 ) ( 1 e t ) {\displaystyle {\frac {e^{at}-e^{(b+1)t}}{(b-a+1)(1-e^{t})}}} e a i t e ( b + 1 ) i t ( b a + 1 ) ( 1 e i t ) {\displaystyle {\frac {e^{ait}-e^{(b+1)it}}{(b-a+1)(1-e^{it})}}}
Laplace L ( μ , b ) {\displaystyle L(\mu ,b)} e t μ 1 b 2 t 2 ,   | t | < 1 / b {\displaystyle {\frac {e^{t\mu }}{1-b^{2}t^{2}}},~|t|<1/b} e i t μ 1 + b 2 t 2 {\displaystyle {\frac {e^{it\mu }}{1+b^{2}t^{2}}}}
Normal N ( μ , σ 2 ) {\displaystyle N(\mu ,\sigma ^{2})} e t μ + 1 2 σ 2 t 2 {\displaystyle e^{t\mu +{\frac {1}{2}}\sigma ^{2}t^{2}}} e i t μ 1 2 σ 2 t 2 {\displaystyle e^{it\mu -{\frac {1}{2}}\sigma ^{2}t^{2}}}
Khi quadrat χ k 2 {\displaystyle \chi _{k}^{2}} ( 1 2 t ) k 2 ,   t < 1 / 2 {\displaystyle (1-2t)^{-{\frac {k}{2}}},~t<1/2} ( 1 2 i t ) k 2 {\displaystyle (1-2it)^{-{\frac {k}{2}}}}
Khi quadrat no central χ k 2 ( λ ) {\displaystyle \chi _{k}^{2}(\lambda )} e λ t / ( 1 2 t ) ( 1 2 t ) k 2 {\displaystyle e^{\lambda t/(1-2t)}(1-2t)^{-{\frac {k}{2}}}} e i λ t / ( 1 2 i t ) ( 1 2 i t ) k 2 {\displaystyle e^{i\lambda t/(1-2it)}(1-2it)^{-{\frac {k}{2}}}}
Gamma Γ ( k , θ ) {\displaystyle \Gamma (k,\theta )} ( 1 t θ ) k ,   t < 1 θ {\displaystyle (1-t\theta )^{-k},~t<{\tfrac {1}{\theta }}} ( 1 i t θ ) k {\displaystyle (1-it\theta )^{-k}}
Exponential Exp ( λ ) {\displaystyle \operatorname {Exp} (\lambda )} ( 1 t λ 1 ) 1 ,   t < λ {\displaystyle \left(1-t\lambda ^{-1}\right)^{-1},~t<\lambda } ( 1 i t λ 1 ) 1 {\displaystyle \left(1-it\lambda ^{-1}\right)^{-1}}
Beta 1 + k = 1 ( r = 0 k 1 α + r α + β + r ) t k k ! {\displaystyle 1+\sum _{k=1}^{\infty }\left(\prod _{r=0}^{k-1}{\frac {\alpha +r}{\alpha +\beta +r}}\right){\frac {t^{k}}{k!}}} 1 F 1 ( α ; α + β ; i t ) {\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;i\,t)\!} (vegeu Sèrie hipergeomètrica)
Cauchy C ( μ , γ ) {\displaystyle {\mathcal {C}}(\mu ,\gamma )} No existeix e i t μ γ | t | {\displaystyle e^{it\mu -\gamma |t|}}
Normal multivariable N ( μ , Σ ) {\displaystyle N(\mathbf {\mu } ,\mathbf {\Sigma } )}

(Vegeu nota (2))

e t ( μ + 1 2 Σ t ) {\displaystyle e^{\mathbf {t} '\left({\boldsymbol {\mu }}+{\frac {1}{2}}\mathbf {\Sigma t} \right)}} e t ( i μ 1 2 Σ t ) {\displaystyle e^{\mathbf {t} '\left(i{\boldsymbol {\mu }}-{\frac {1}{2}}{\boldsymbol {\Sigma }}\mathbf {t} \right)}}
Multinomial M ( n ; p 1 , , p d ) {\displaystyle {\mathcal {M}}(n;p_{1},\dots ,p_{d})} ( p 1 e t 1 + p d e t d ) n {\displaystyle {\big (}p_{1}e^{t_{1}}+\cdots p_{d}e^{t_{d}}{\big )}^{n}} ( p 1 e i t 1 + p d e i t d ) n {\displaystyle {\big (}p_{1}e^{it_{1}}+\cdots p_{d}e^{it_{d}}{\big )}^{n}}
Cauchy multivariant (Vegeu nota (2))

C ( μ , Σ ) {\displaystyle {\mathcal {C}}(\mathbf {\mu } ,\mathbf {\Sigma } )}

No existeix e i t μ t Σ t {\displaystyle \!\,e^{i\mathbf {t} '{\boldsymbol {\mu }}-{\sqrt {\mathbf {t} '{\boldsymbol {\Sigma }}\mathbf {t} }}}}

Notes

(1) Distribució geomètrica relativa al número de proves fins al primer èxit, inclòs aquest, amb probabilitat d'èxit p {\displaystyle p} .
(2) El vectors estan escrits en columna i t {\displaystyle {\boldsymbol {t}}'} designa el transposat del vector t {\displaystyle {\boldsymbol {t}}}



Referències

  1. Sanz i Solé, Marta. Probabilitats. Barcelona: Edicions Universitat de Barcelona, 1999, p. 118. ISBN 84-8338-091-9. 
  2. 2,0 2,1 2,2 2,3 Degroot, Morris H. Probabilidad y Estadística. 2a. edición. Mèxico: Addison-Wesley Iberoamericana, 1988, p. 190-194. ISBN 0-201-64405-3. 
  3. Athreya, Krishna Balasundaram; Lahiri, Soumendra Nath. Measure theory and probability theory. New York: Springer, 2006, p. 194-196. ISBN 978-0-387-32903-1. 
  4. 4,0 4,1 4,2 Hoffmann Jørgensen, Jørgen. Probability with a view toward statistics. 1. Boca Raton: CRC Press, 2003, p. 283-284. ISBN 978-0-412-05221-7. 
  5. 5,0 5,1 5,2 5,3 5,4 Curtiss, J. H. «A Note on the Theory of Moment Generating Functions» (en anglès). The Annals of Mathematical Statistics, 13, 4, 1942-12, pàg. 430–433. DOI: 10.1214/aoms/1177731541. ISSN: 0003-4851.
  6. Nadarajah, Saralees «Making the Cauchy work». Brazilian Journal of Probability and Statistics, 25, 1, 2011, pàg. 99–120. ISSN: 0103-0752.
  7. Widder, D. V.. The Laplace Transform. London: Princeton University Press, 1946. 
  8. Marsden, Jerrold E.; Hoffman, Michael J. Basic complex analysis. 2. ed., 9. pr. New York: Freeman, 1997, p. 527. ISBN 978-0-7167-1814-7. 
  9. Carrier, George F.; Krook, Max; Pearson, Carl E. Functions of a complex variable: theory and technique. Philadelphia (Pa.): SIAM, 2005, p. 65. ISBN 978-0-89871-595-8. 
  10. 10,0 10,1 Athreya, Krishna B. Measure theory and probability theory. Nova York: Springer, 2006, p. 198-199. ISBN 0-387-32903-X. 
  11. 11,0 11,1 Seber, George Arthur Frederick; Lee, Alan J. Linear regression analysis. 2nd ed. Hoboken (N.J.): J. Wiley, 2003, p. 13-14. ISBN 978-0-471-41540-4.