Distribuzione Gamma

Distribuzione Gamma
Funzione di densità di probabilità
Funzione di densità di probabilità
Funzione di ripartizione
Funzione di ripartizione
Parametri k > 0   {\displaystyle k>0\ } e θ > 0   {\displaystyle \theta >0\ }
oppure
α > 0   {\displaystyle \alpha >0\ } e β > 0   {\displaystyle \beta >0\ }
( k = α {\displaystyle k=\alpha } , θ β = 1 {\displaystyle \theta \beta =1} )
Supporto R + {\displaystyle \mathbb {R} ^{+}}
Funzione di densità x k 1 e x θ θ k Γ ( k ) {\displaystyle {\frac {x^{k-1}e^{-{\frac {x}{\theta }}}}{\theta ^{k}\Gamma (k)}}}
(con Γ {\displaystyle \Gamma } la funzione Gamma)
Funzione di ripartizione P ( k , x ) = γ ( k , x / θ ) Γ ( k ) {\displaystyle P(k,x)={\frac {\gamma (k,x/\theta )}{\Gamma (k)}}}
( γ {\displaystyle \gamma } è la funzione Gamma incompleta inferiore regolarizzata)
Valore atteso k θ   {\displaystyle k\theta \ }
Moda ( k 1 ) θ   {\displaystyle (k-1)\theta \ } se k 1 {\displaystyle k\geq 1}
Varianza k θ 2   {\displaystyle k\theta ^{2}\ }
Indice di asimmetria 2 k {\displaystyle {\frac {2}{\sqrt {k}}}}
Curtosi 6 k {\displaystyle {\frac {6}{k}}}
Entropia k + ln θ + ln Γ ( k ) + ( 1 k ) ψ 0 ( k ) {\displaystyle k+\ln \theta +\ln \Gamma (k)+(1-k)\psi _{0}(k)}
(con ψ 0 {\displaystyle \psi _{0}} la funzione digamma)
Funzione generatrice dei momenti ( 1 θ t ) k   {\displaystyle (1-\theta t)^{-k}\ } per t < θ 1 {\displaystyle t<\theta ^{-1}}
Funzione caratteristica ( 1 i θ t ) k   {\displaystyle (1-i\theta t)^{-k}\ }
Manuale

In teoria delle probabilità la distribuzione Gamma è una distribuzione di probabilità continua, che comprende, come casi particolari, anche le distribuzioni esponenziale e chi quadrato.

Viene utilizzata come modello generale dei tempi di attesa nella teoria delle code, soprattutto qualora siano importanti effetti che rimuovano "l'assenza di memoria" della distribuzione esponenziale. Nella statistica bayesiana è comune sia come distribuzione a priori che come distribuzione a posteriori.

Definizione

La distribuzione Gamma è la distribuzione di probabilità della variabile aleatoria definita come la somma di variabili aleatorie indipendenti e con distribuzione esponenziale; la distribuzione Gamma è una distribuzione di probabilità definita sui numeri reali positivi, R + {\displaystyle \mathbb {R} ^{+}} . A seconda degli autori, viene parametrizzata in due modi diversi: sia tramite la coppia di numeri positivi ( k , θ ) {\displaystyle (k,\theta )} , sia tramite la coppia di numeri positivi ( α , β ) {\displaystyle (\alpha ,\beta )} . Le due parametrizzazioni sono legate dalle relazioni α = k {\displaystyle \alpha =k} e β = 1 / θ {\displaystyle \beta =1/\theta } . Nel seguito si farà riferimento alla parametrizzazione Gamma ( k , θ ) {\displaystyle (k,\theta )} .

La sua funzione di densità di probabilità è

f ( x ) = 1 θ k Γ ( k ) x k 1 e x θ = β α Γ ( α ) x α 1 e β x {\displaystyle f(x)={\frac {1}{\theta ^{k}\Gamma (k)}}x^{k-1}e^{-{\frac {x}{\theta }}}={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}x^{\alpha -1}e^{-\beta x}} ,

dove Γ ( k ) = 0 t k 1 e t d t {\displaystyle \Gamma (k)=\int _{0}^{\infty }t^{k-1}e^{-t}dt} è la funzione Gamma di Eulero.

Possiamo osservare che se k N {\displaystyle k\in \mathbb {N} } vale che Γ ( k ) = ( k 1 ) ! {\displaystyle \Gamma (k)=(k-1)!}

La sua funzione di ripartizione è la funzione gamma incompleta inferiore regolarizzata

F ( x ) = P ( k , x ) = γ ( k , x / θ ) Γ ( k ) = γ ( α , β x ) Γ ( α ) {\displaystyle F(x)=P(k,x)={\frac {\gamma (k,x/\theta )}{\Gamma (k)}}={\frac {\gamma (\alpha ,\beta x)}{\Gamma (\alpha )}}} ,

dove γ ( k , x ) = 0 x t k 1 e t d t {\displaystyle \gamma (k,x)=\int _{0}^{x}t^{k-1}e^{-t}dt} è la funzione Gamma incompleta inferiore.

Caratteristiche

I momenti semplici della distribuzione Gamma di parametri ( k , θ ) {\displaystyle (k,\theta )} sono

μ n = E [ X n ] = 1 θ k Γ ( k ) 0 x k + n 1 e x θ d x {\displaystyle \mu _{n}=\mathbb {E} [X^{n}]={\tfrac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }x^{k+n-1}e^{-{\frac {x}{\theta }}}dx}
μ n = θ k + n 1 θ k 1 Γ ( k ) 0 u k + n 1 e u d u = θ n Γ ( k + n ) Γ ( k ) = θ n i = 0 n 1 ( k + i ) , {\displaystyle \mu _{n}={\tfrac {\theta ^{k+n-1}}{\theta ^{k-1}\Gamma (k)}}\int _{0}^{\infty }u^{k+n-1}e^{-u}du=\theta ^{n}{\frac {\Gamma (k+n)}{\Gamma (k)}}=\theta ^{n}\prod _{i=0}^{n-1}(k+i),}

dove si effettua la solita sostituzione x θ = u {\displaystyle {\frac {x}{\theta }}=u} per ottenere la rappresentazione integrale della funzione Gamma di Eulero.

In particolare la distribuzione ha:

  • valore atteso E [ X ] = k θ ; {\displaystyle \mathbb {E} [X]=k\theta ;}
  • varianza V a r ( X ) = k θ 2 ; {\displaystyle \mathrm {Var} (X)=k\theta ^{2};}
  • indice di asimmetria γ 1 = 2 k 1 2 ; {\displaystyle \gamma _{1}=2\,k^{-{\frac {1}{2}}};}
  • indice di curtosi γ 2 = 6 k 1 . {\displaystyle \gamma _{2}=6\,k^{-1}.}

Funzione generatrice di momenti:

M X ( t ) = E [ e t X ] = 1 θ k Γ ( k ) 0 x k 1 e x ( 1 θ t ) d x = 1 θ k Γ ( k ) ( 1 θ t ) k 0 u k 1 e u d u {\displaystyle \mathbb {M} _{X}(t)=\mathbb {E} [e^{tX}]={\frac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }x^{k-1}e^{-x\left({\frac {1}{\theta }}-t\right)}dx={\frac {1}{\theta ^{k}\Gamma (k)({\tfrac {1}{\theta }}-t)^{k}}}\int _{0}^{\infty }u^{k-1}e^{-u}du}
M X ( t ) = ( 1 θ t ) k {\displaystyle \mathbb {M} _{X}(t)=(1-\theta t)^{-k}} che esiste per ogni valore di t tale che 1 θ t > 0 t < θ 1 . {\displaystyle 1-\theta t>0\Rightarrow t<\theta ^{-1}.}

Proprietà (Teorema del cambiamento di scala)

Se X {\displaystyle X} segue la distribuzione Gamma ( k , θ ) {\displaystyle (k,\theta )} allora a X {\displaystyle aX} segue la distribuzione Gamma ( k , a θ ) {\displaystyle (k,a\theta )} .

Se X 1 , , X n {\displaystyle X_{1},\ldots ,X_{n}} sono variabili aleatorie indipendenti, ognuna con distribuzione Gamma ( k i , θ ) {\displaystyle (k_{i},\theta )} , allora la loro somma X 1 + + X n {\displaystyle X_{1}+\ldots +X_{n}} segue la distribuzione Gamma ( k 1 + + k n , θ ) {\displaystyle (k_{1}+\ldots +k_{n},\theta )} .

Altre distribuzioni

La distribuzione Gamma generalizza diverse distribuzioni (è conveniente ora utilizzare la seconda delle due parametrizzazioni presentate):

Nell'inferenza bayesiana la distribuzione Gamma può descrivere sia a priori che a posteriori di un'osservazione il parametro X {\displaystyle X} di diverse distribuzioni di probabilità, ad esempio della distribuzione esponenziale e della distribuzione di Poisson.

La distribuzione Gamma inversa è la distribuzione dell'inversa X 1 {\displaystyle X^{-1}} di una variabile aleatoria X {\displaystyle X} che segue la distribuzione Gamma.

Se X {\displaystyle X} e Y {\displaystyle Y} sono variabili aleatorie indipendenti con distribuzioni G a m m a ( k 1 , θ ) {\displaystyle \mathrm {Gamma} (k_{1},\theta )} e G a m m a ( k 2 , θ ) {\displaystyle \mathrm {Gamma} (k_{2},\theta )} , allora Z = X X + Y {\displaystyle Z={\tfrac {X}{X+Y}}} segue la distribuzione Beta B e t a ( k 1 , k 2 ) {\displaystyle \mathrm {Beta} (k_{1},k_{2})} , mentre X Y = Z 1 Z {\displaystyle {\tfrac {X}{Y}}={\tfrac {Z}{1-Z}}} segue una distribuzione Beta del secondo tipo.

Più in generale il vettore 1 X 1 + + X n ( X 1 , , X n ) {\displaystyle {\tfrac {1}{X_{1}+\ldots +X_{n}}}(X_{1},\ldots ,X_{n})} , descritto da n {\displaystyle n} variabili aleatorie indipendenti X i {\displaystyle X_{i}} di distribuzioni G a m m a ( k i , θ ) {\displaystyle \mathrm {Gamma} (k_{i},\theta )} , segue una distribuzione di Dirichlet di parametri ( k 1 , , k n ) {\displaystyle (k_{1},\ldots ,k_{n})} .

Una generalizzazione della distribuzione Gamma è la distribuzione di Wishart, che generalizza anche la distribuzione χ 2 {\displaystyle \chi ^{2}} .

Stimatori

Calcoliamo ora degli stimatori che possano, dato un campione presumibilmente Gamma distribuito, restituirci una stima dei suoi parametri θ {\displaystyle \theta } e k {\displaystyle k} .

Uno stimatore corretto per θ {\displaystyle \theta } è

θ ^ = 1 n k i = 1 n x i . {\displaystyle {\hat {\theta }}={\frac {1}{nk}}\sum _{i=1}^{n}x_{i}.}

Stimatore asintoticamente corretto per k {\displaystyle k} è:

k ^ = ψ 0 1 [ ln ( i = 1 n x i θ n ) ] = ψ 0 1 [ 1 n i = 1 n ln ( x i θ ) ] . {\displaystyle {\hat {k}}=\psi _{0}^{-1}\left[\ln \left({\sqrt[{n}]{\prod _{i=1}^{n}{\frac {x_{i}}{\theta }}}}\right)\right]=\psi _{0}^{-1}\left[{\frac {1}{n}}\sum _{i=1}^{n}\ln \left({\frac {x_{i}}{\theta }}\right)\right].}


dove ψ 0 1 {\displaystyle \psi _{0}^{-1}} è la funzione inversa della funzione digamma ψ 0 ( k ) {\displaystyle \psi _{0}(k)} così definita:

ψ 0 ( x ) := Γ ( x ) Γ ( x ) = d d x ln Γ ( x ) . {\displaystyle \psi _{0}(x):={\frac {\Gamma '(x)}{\Gamma (x)}}={\frac {d}{dx}}\ln \Gamma (x).}

Le dimostrazioni adottano il metodo della massima verosimiglianza, dove la funzione di verosimiglianza dato il campione è

{ X i } i = 1 n R + {\displaystyle \{X_{i}\}_{i=1}^{n}\subset \mathbb {R} ^{+}}
L ( { X i } | θ , k ) = 1 θ n k Γ n ( k ) ( i = 1 n x i ) k 1 e 1 θ i = 1 n x i . {\displaystyle {\mathcal {L}}(\{X_{i}\}|\theta ,k)={\frac {1}{\theta ^{nk}\Gamma ^{n}(k)}}\,\cdot \,\left(\prod _{i=1}^{n}x_{i}\right)^{k-1}\,e^{-{\frac {1}{\theta }}\sum _{i=1}^{n}x_{i}}.}

Dimostrazione stimatore di θ

Il parametro θ {\displaystyle \theta } è il più semplice da stimare.

Notiamo che la funzione di verosimiglianza è ovunque positiva e nel limite degli estremi di θ {\displaystyle \theta } , si annulla.

lim θ 0 + L = 0 {\displaystyle \lim _{\theta \rightarrow 0^{+}}{\mathcal {L}}=0}
lim θ + L = 0 {\displaystyle \lim _{\theta \rightarrow +\infty }{\mathcal {L}}=0}

Pertanto se imponiamo la sua derivata uguale a zero, nel caso la soluzione sia unica, questa deve per forza essere un punto di massimo.

( L θ ) θ = θ ^ = e 1 θ ^ i = 1 n x i Γ n ( k ) ( i = 1 n x i ) k 1 ( θ ^ n k 2 i = 1 n x i n k θ ^ n k 1 ) {\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial \theta }}\right)_{\theta ={\hat {\theta }}}={\frac {e^{-{\frac {1}{\hat {\theta }}}\sum _{i=1}^{n}x_{i}}}{\Gamma ^{n}(k)}}\left(\prod _{i=1}^{n}x_{i}\right)^{k-1}\,\cdot \left({\hat {\theta }}^{-nk-2}\sum _{i=1}^{n}x_{i}-nk{\hat {\theta }}^{-nk-1}\right)}

Occorre adesso eguagliare a zero tale espressione

( L θ ) θ = θ ^ = 0 θ ^ n k 2 i = 1 n x i n k θ ^ n k 1 = 0 θ ^ = 1 n k i = 1 n x i {\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial \theta }}\right)_{\theta ={\hat {\theta }}}=0\,\Rightarrow \,{\hat {\theta }}^{-nk-2}\sum _{i=1}^{n}x_{i}-nk{\hat {\theta }}^{-nk-1}=0\,\Rightarrow \,{\hat {\theta }}={\frac {1}{nk}}\sum _{i=1}^{n}x_{i}}

Ed ecco il nostro stimatore di θ {\displaystyle \theta } , che ricorda molto una media aritmetica, riscalata sul parametro k {\displaystyle k} (che ricordiamo essere uguale a 1 nel caso particolare della distribuzione esponenziale). Si può notare facilmente che il valor atteso di questo stimatore è proprio θ {\displaystyle \theta } , data la linearità dell'operatore.

E [ θ ^ ] = E [ 1 k n i = 1 n x i ] = 1 k n i = 1 n E [ x i ] . {\displaystyle \mathbb {E} [{\hat {\theta }}]=\mathbb {E} \left[{\frac {1}{kn}}\sum _{i=1}^{n}x_{i}\right]={\frac {1}{kn}}\sum _{i=1}^{n}\mathbb {E} [x_{i}].}

Ricordiamo E [ x i ] = k θ {\displaystyle \mathbb {E} [x_{i}]=k\theta }

E [ θ ^ ] = n k θ k n = θ . {\displaystyle \mathbb {E} [{\hat {\theta }}]={\frac {nk\theta }{kn}}=\theta .}

Dimostrazione stimatore di k

Prendiamo ora in esame il calcolo dello stimatore per k {\displaystyle k} .

Anche qui la funzione di verosimiglianza si annulla per il limite di k 0 + {\displaystyle k\rightarrow 0^{+}} e k + {\displaystyle k\rightarrow +\infty } , pertanto procediamo con il calcolo della derivata.

( L k ) k = k ^ = e 1 θ x i ( x i ) k ^ 1 [ ln ( x i ) θ n k ^ Γ n ( k ^ ) n ln ( θ ) + ψ 0 ( k ^ ) θ n k ^ Γ n ( k ^ ) ] = e 1 θ x i ( x i ) k ^ 1 θ n k ^ Γ n ( k ^ ) [ ln ( x i θ ) n ψ 0 ( k ^ ) ] . {\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial k}}\right)_{k={\hat {k}}}\!\!\!\!\!=e^{-{\frac {1}{\theta }}\sum x_{i}}\left(\prod x_{i}\right)^{{\hat {k}}-1}\left[{\frac {\ln \left(\prod x_{i}\right)}{\theta ^{n{\hat {k}}}\Gamma ^{n}({\hat {k}})}}-n{\frac {\ln(\theta )+\psi _{0}({\hat {k}})}{\theta ^{n{\hat {k}}}\Gamma ^{n}({\hat {k}})}}\right]={\frac {e^{-{\frac {1}{\theta }}\sum x_{i}}\left(\prod x_{i}\right)^{{\hat {k}}-1}}{\theta ^{n{\hat {k}}}\Gamma ^{n}({\hat {k}})}}\left[\ln \left(\prod {\frac {x_{i}}{\theta }}\right)-n\psi _{0}({\hat {k}})\right].}

Con ψ 0 ( k ) {\displaystyle \psi _{0}(k)} indichiamo la funzione digamma così definita:

ψ 0 ( x ) := Γ ( x ) Γ ( x ) = d d x ln Γ ( x ) , {\displaystyle \psi _{0}(x):={\frac {\Gamma '(x)}{\Gamma (x)}}={\frac {d}{dx}}\ln \Gamma (x),}

che può essere espressa mediante una relazione integrale

ψ 0 ( x ) = 0 e t ( 1 + t ) x t d t . {\displaystyle \psi _{0}(x)=\int _{0}^{\infty }{\frac {e^{-t}-(1+t)^{-x}}{t}}dt.}

Eguagliando a zero la nostra funzione di verosimiglianza otteniamo il nostro punto di massimo

( L k ) k = k ^ = 0 ln ( x i θ ) n ψ 0 ( k ^ ) = 0 ψ 0 ( k ^ ) = ln ( x i θ n ) {\displaystyle \left({\frac {\partial {\mathcal {L}}}{\partial k}}\right)_{k={\hat {k}}}\!\!\!\!\!=0\,\Rightarrow \,\ln \left(\prod {\frac {x_{i}}{\theta }}\right)-n\psi _{0}({\hat {k}})=0\,\Rightarrow \,\psi _{0}({\hat {k}})=\ln \left({\sqrt[{n}]{\prod {\frac {x_{i}}{\theta }}}}\right)}

La funzione digamma, nei reali positivi è strettamente crescente, per cui esiste la funzione inversa

k ^ = ψ 0 1 [ ln ( i = 1 n x i θ n ) ] = ψ 0 1 [ 1 n i = 1 n ln ( x i θ ) ] . {\displaystyle {\hat {k}}=\psi _{0}^{-1}\left[\ln \left({\sqrt[{n}]{\prod _{i=1}^{n}{\frac {x_{i}}{\theta }}}}\right)\right]=\psi _{0}^{-1}\left[{\frac {1}{n}}\sum _{i=1}^{n}\ln \left({\frac {x_{i}}{\theta }}\right)\right].}

Questo stimatore ottenuto è asintoticamente corretto, ma per valori finiti andrebbe verificato il suo valore atteso che, se risultasse essere k {\displaystyle k} , allora sarebbe un corretto stimatore.

Calcoliamo quindi

E [ ψ 0 ( k ^ ) ] = E [ 1 n i = 1 n ln ( x i θ ) ] = 1 n i = 1 n E [ ln ( x i θ ) ] = 1 n i = 1 n 0 ln ( x i θ ) x i k 1 θ k Γ ( k ) e x i θ d x i , {\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]=\mathbb {E} \left[{\frac {1}{n}}\sum _{i=1}^{n}\ln \left({\frac {x_{i}}{\theta }}\right)\right]={\frac {1}{n}}\sum _{i=1}^{n}\mathbb {E} \left[\ln \left({\frac {x_{i}}{\theta }}\right)\right]={\frac {1}{n}}\sum _{i=1}^{n}\int _{0}^{\infty }\ln \left({\frac {x_{i}}{\theta }}\right){\frac {x_{i}^{k-1}}{\theta ^{k}\Gamma (k)}}e^{-{\frac {x_{i}}{\theta }}}dx_{i},}

dove abbiamo usato la linearità del valore atteso e scritto la sua definizione su variabile aleatoria continua.

E [ ψ 0 ( k ^ ) ] = 1 n θ k Γ ( k ) i = 1 n 0 ln ( x i θ ) x i k 1 e x i θ d x i = 1 θ k Γ ( k ) 0 ln ( t θ ) t k 1 e t θ d t {\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]={\frac {1}{n\theta ^{k}\Gamma (k)}}\sum _{i=1}^{n}\int _{0}^{\infty }\ln \left({\frac {x_{i}}{\theta }}\right)x_{i}^{k-1}e^{-{\frac {x_{i}}{\theta }}}dx_{i}={\frac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }\ln \left({\frac {t}{\theta }}\right)t^{k-1}e^{-{\frac {t}{\theta }}}dt}

Tutti gli integrali nella i {\displaystyle i} -esima variabile sono uguali tra di loro, quindi la loro somma dà n {\displaystyle n} volte il singolo integrale nella generica variabile di integrazione t {\displaystyle t} .

E [ ψ 0 ( k ^ ) ] = 1 θ k Γ ( k ) 0 ln ( t θ ) t k 1 e t θ d t = θ k 1 θ k 1 Γ ( k ) 0 ln ( u ) u k 1 e u d u = 1 Γ ( k ) 0 u k 1 ln ( u ) e u d u {\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]={\frac {1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }\ln \left({\frac {t}{\theta }}\right)t^{k-1}e^{-{\frac {t}{\theta }}}dt={\frac {\theta ^{k-1}}{\theta ^{k-1}\Gamma (k)}}\int _{0}^{\infty }\ln(u)u^{k-1}e^{-u}du={\frac {1}{\Gamma (k)}}\int _{0}^{\infty }u^{k-1}\ln(u)e^{-u}du}

e il risultato di quest'ultimo integrale è proprio Γ ( k ) ψ 0 ( k ) {\displaystyle \Gamma (k)\psi _{0}(k)} per qualunque k {\displaystyle k} con parte reale positiva. Abbiamo quindi ottenuto l'identità

E [ ψ 0 ( k ^ ) ] = ψ 0 ( k ) , {\displaystyle \mathbb {E} [\psi _{0}({\hat {k}})]=\psi _{0}(k),}

che non è sufficiente a dire che lo stimatore sia corretto (non solo asintoticamente), ma è tuttavia necessario.

In effetti dalla disuguaglianza di Jensen (secondo cui φ ( E [ X ] ) E [ φ ( X ) ] {\displaystyle \varphi (\mathbb {E} [X])\leq \mathbb {E} [\varphi (X)]} per una qualunque variabile aleatoria X e una funzione convessa φ {\displaystyle \varphi } ) si ottiene un risultato più forte grazie al fatto che la funzione ψ 0 1 : R R + {\displaystyle \psi _{0}^{-1}\colon \mathbb {R} \rightarrow \mathbb {R} ^{+}} è convessa su tutto il suo dominio.

Infatti usando la disuguaglianza di Jensen per X = ψ 0 ( k ^ ) {\displaystyle X=\psi _{0}({\hat {k}})} e φ = ψ 0 1 {\displaystyle \varphi =\psi _{0}^{-1}} risulterà

ψ 0 1 ( E [ ψ 0 ( k ^ ) ] ) E [ ψ 0 1 ( ψ 0 ( k ^ ) ) ] = E [ k ^ ] . {\displaystyle \psi _{0}^{-1}\left(\mathbb {E} \left[\psi _{0}({\hat {k}})\right]\right)\leq \mathbb {E} \left[\psi _{0}^{-1}\left(\psi _{0}({\hat {k}})\right)\right]=\mathbb {E} [{\hat {k}}].}

Dall'uguaglianza ottenuta in precedenza il membro di sinistra si semplifica così da avere:

k E [ k ^ ] . {\displaystyle k\leq \mathbb {E} [{\hat {k}}].}

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su distribuzione Gamma

Collegamenti esterni

  • (EN) William L. Hosch, gamma distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Distribuzione Gamma, su MathWorld, Wolfram Research. Modifica su Wikidata
Controllo di autoritàGND (DE) 4155928-9
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica