Multivariate Verteilungsfunktion

Dieser Artikel behandelt die mehrdimensionale Verteiltungsfunktion; zur zugrundeliegenden mehrdimensionalen Verteilung siehe multivariate Verteilung.

Eine multivariate Verteilungsfunktion ist eine reellwertige Funktion in der Stochastik, die zur Untersuchung von multivariaten Wahrscheinlichkeitsverteilungen und der Verteilung von Zufallsvektoren herangezogen wird. Sie ist das höherdimensionale Pendant der univariaten Verteilungsfunktion und erlangt wie diese ihre Bedeutung dadurch, dass sich nach dem Korrespondenzsatz die multivariaten Wahrscheinlichkeitsverteilungen eindeutig durch ihre multivariate Verteilungsfunktion charakterisieren lassen. Damit lässt sich die Untersuchung von Wahrscheinlichkeitsverteilungen mit maßtheoretischen Methoden auf die leichter zugängliche Untersuchung von reellwertigen Funktionen mit Methoden der mehrdimensionalen reellen Analysis reduzieren.

Neben der Bezeichnung als multivariate Verteilungsfunktion findet sich auch n-dimensionale Verteilungsfunktion,[1] oder mehrdimensionale Verteilungsfunktion als Bezeichnung. Zu beachten ist, dass in der Maßtheorie der Begriff der Verteilungsfunktionen auch für unnormalisierte Verteilungsfunktionen verwendet wird.[2]

Notationen

Für Vektoren x , y {\displaystyle x,y} aus R n {\displaystyle \mathbb {R} ^{n}} sind die Vergleichsoperationen komponentenweise zu verstehen, also

x y {\displaystyle x\leq y} genau dann wenn x i y i {\displaystyle x_{i}\leq y_{i}} für alle i { 1 , 2 , , n } {\displaystyle i\in \{1,2,\dots ,n\}} .

Des Weiteren sei für x R n {\displaystyle x\in \mathbb {R} ^{n}}

( , x ] := { y R n | y x } {\displaystyle (-\infty ,x]:=\{y\in \mathbb {R} ^{n}\,|\,y\leq x\}}

beziehungsweise über die Komponenten definiert

( , x ] = ( , x 1 ] × ( , x 2 ] × × ( , x n ] {\displaystyle (-\infty ,x]=(-\infty ,x_{1}]\times (-\infty ,x_{2}]\times \dots \times (-\infty ,x_{n}]}

Definition

Mit den obigen Notationen überträgt sich die Definition der multivariaten Verteilungsfunktion im Wesentlichen direkt von der univariaten Verteilungsfunktion.

Definition über ein Wahrscheinlichkeitsmaß

Ist P {\displaystyle P} eine multivariate Wahrscheinlichkeitsverteilung, also ein Wahrscheinlichkeitsmaß auf ( R n , B ( R n ) ) {\displaystyle (\mathbb {R} ^{n},{\mathcal {B}}(\mathbb {R} ^{n}))} , so heißt die Funktion

F P : R n [ 0 , 1 ] {\displaystyle F_{P}\colon \mathbb {R} ^{n}\to [0,1]}

definiert durch

F P ( x ) := P ( ( , x ] ) {\displaystyle F_{P}(x):=P((-\infty ,x])}

die multivariate Verteilungsfunktion von P {\displaystyle P} .

Definition für einen Zufallsvektor

Ist X {\displaystyle X} ein n {\displaystyle n} -dimensionaler Zufallsvektor, so heißt

F X : R n [ 0 , 1 ] {\displaystyle F_{X}\colon \mathbb {R} ^{n}\to [0,1]}

definiert durch

F X ( x ) := P ( X x ) {\displaystyle F_{X}(x):=P(X\leq x)}

die multivariate Verteilungsfunktion von X {\displaystyle X} . Die multivariate Verteilungsfunktion eines Zufallsvektors ist somit genau die multivariate Verteilungsfunktion der Verteilung des Zufallsvektors.

Gängig ist auch die komponentenweise Definition als

F X ( x 1 , x 2 , , x n ) := P ( X 1 x 1 , X 2 x 2 , , X n x n ) {\displaystyle F_{X}(x_{1},x_{2},\dots ,x_{n}):=P(X_{1}\leq x_{1},X_{2}\leq x_{2},\dots ,X_{n}\leq x_{n})} ,

wobei X = ( X 1 , X 2 , , X n ) T {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})^{T}} ist. Somit ist die multivariate Verteilungsfunktion eines Zufallsvektors genau die gemeinsame Verteilungsfunktion der Komponenten.

Eigenschaften

Für jede Verteilungsfunktion F = F P {\displaystyle F=F_{P}} gilt:

  • Rechtsstetigkeit: sie ist in jeder ihrer Variablen rechtsseitig stetig
  • Rechtecksmonotonie: Sie ist rechtecksmonoton, das heißt, dass aus a b R n {\displaystyle a\leq b\in \mathbb {R} ^{n}} immer Δ a b F 0 {\displaystyle \Delta _{a}^{b}F\geq 0} folgt. Zur Schreibweise Δ a b {\displaystyle \Delta _{a}^{b}} siehe Differenz-Operator.
  • Normalisierung:
lim x 1 , , x n + F ( x 1 , , x n ) = 1 lim x i F ( x 1 , , x n ) = 0 , i = 1 , , n {\displaystyle {\begin{aligned}\lim _{x_{1},\dots ,x_{n}\to +\infty }F(x_{1},\dots ,x_{n})&=1\\\lim _{x_{i}\to -\infty }F(x_{1},\dots ,x_{n})&=0,\quad \forall i=1,\dots ,n\end{aligned}}}

Umgekehrt gilt nach der multivariaten Version des Korrespondenzsatzes (welcher aus dem Maßerweiterungssatz von Carathéodory folgt), dass jede Funktion, welche die obigen Bedingungen erfüllt, Verteilungsfunktion eines eindeutig bestimmten multivariaten Wahrscheinlichkeitsmaßes ist.

Für die j {\displaystyle j} -te Randverteilungsfunktion gilt

F j ( x j ) = lim x 1 lim x j 1 lim x j + 1 lim x n F ( x 1 , , x j 1 , x j , x j + 1 , , x n ) für alle  x j R {\displaystyle F_{j}(x_{j})=\lim _{x_{1}\to \infty }\dots \lim _{x_{j-1}\to \infty }\lim _{x_{j+1}\to \infty }\dots \lim _{x_{n}\to \infty }F(x_{1},\dots ,x_{j-1},x_{j},x_{j+1},\dots ,x_{n})\quad {\text{für alle }}x_{j}\in \mathbb {R} } .

Ein n {\displaystyle n} -dimensionaler Zufallsvektor X {\displaystyle X} heißt stetig verteilt, falls es eine integrierbare Dichte f X {\displaystyle f_{X}} gibt, sodass für alle x = ( x 1 , , x n ) R n {\displaystyle x=(x_{1},\dots ,x_{n})\in \mathbb {R} ^{n}} und eine messbare Funktion f X : R n R + {\displaystyle f_{X}:\mathbb {R} ^{n}\to \mathbb {R} _{+}}

F X ( x ) = ( , x ] f X ( t ) d t = x 1 x n f X ( t 1 , , t n ) d t 1 d t n {\displaystyle F_{X}(x)=\int \limits _{(-\infty ,x]}f_{X}(t)\mathrm {d} t=\int _{-\infty }^{x_{1}}\dots \int _{-\infty }^{x_{n}}f_{X}(t_{1},\dots ,t_{n})\mathrm {d} t_{1}\dots \mathrm {d} t_{n}}

gilt.

Siehe auch

  • Copula (Mathematik)
  • Randverteilung

Literatur

  • David Meintrup, Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005, ISBN 978-3-540-21676-6, doi:10.1007/b137972. 
  • Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-642-45387-8. 
  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, doi:10.1007/978-3-642-21026-6. 

Einzelnachweise

  1. Meintrup, Schäffler: Stochastik. 2005, S. 107.
  2. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 74–75.