Fast sichere Konvergenz

Die fast sichere Konvergenz, auch P-fast sichere Konvergenz oder fast sichere punktweise Konvergenz ist ein Begriff aus der Wahrscheinlichkeitstheorie, einem Teilgebiet der Mathematik. Die fast sichere Konvergenz ist neben der Konvergenz im p-ten Mittel, der stochastischen Konvergenz und der Konvergenz in Verteilung einer der vier wichtigsten Konvergenzbegriffe für Folgen von Zufallsvariablen und ist das wahrscheinlichkeitstheoretische Pendant zur Konvergenz fast überall der Maßtheorie. Die fast sichere Konvergenz findet beispielsweise Verwendung bei der Formulierung des starken Gesetzes der großen Zahlen.

Definition

Allgemeiner Fall

Sei ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} ein Wahrscheinlichkeitsraum und ( M , d ) {\displaystyle (M,d)} ein separabler, metrischer Raum (wie zum Beispiel der R n {\displaystyle \mathbb {R} ^{n}} ) versehen mit der Borelschen σ-Algebra B ( M ) {\displaystyle {\mathcal {B}}(M)} sowie X , X n {\displaystyle X,X_{n}} Zufallsvariablen von ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} nach ( M , B ( M ) ) {\displaystyle (M,{\mathcal {B}}(M))} . Die Folge von Zufallsvariablen ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} konvergiert dann fast sicher oder P-fast sicher gegen X {\displaystyle X} , wenn eine Menge N A {\displaystyle N\in {\mathcal {A}}} existiert mit P ( N ) = 0 {\displaystyle P(N)=0} und

lim n d ( X ( ω ) , X n ( ω ) ) = 0 {\displaystyle \lim _{n\to \infty }d(X(\omega ),X_{n}(\omega ))=0}

für alle ω Ω N {\displaystyle \omega \in \Omega \setminus N} . Man schreibt dann auch X n f . s . X {\displaystyle X_{n}{\xrightarrow[{}]{f.s.}}X} , X n P -f.s. X {\displaystyle X_{n}{\xrightarrow[{}]{P{\text{-f.s.}}}}X} oder X n X P {\displaystyle X_{n}\rightarrow X\;P} -f.s.

Für reelle Zufallsvariablen

Alternativ findet sich für reelle Zufallsvariablen auch die Formulierung, dass die Zufallsvariablen genau dann fast sicher konvergieren, wenn

P ( { ω Ω : lim n X n ( ω ) = X ( ω ) } ) = 1 {\displaystyle P\left(\{\omega \in \Omega \colon \lim _{n\to \infty }X_{n}(\omega )=X(\omega )\}\right)=1}

ist.

Beispiele

Betrachte als Beispiel die Grundmenge der reellen Zahlen im Intervall von 0 bis 1, also Ω = [ 0 , 1 ] {\displaystyle \Omega =[0,1]} , versehen mit der Borelschen σ-Algebra B ( [ 0 , 1 ] ) {\displaystyle {\mathcal {B}}([0,1])} . Das Wahrscheinlichkeitsmaß P {\displaystyle P} sei das Diracmaß auf der 1, also

δ 1 ( A ) := { 1   , falls  1 A   , 0   , s o n s t   . {\displaystyle \delta _{1}(A):={\begin{cases}1\ ,&{\text{falls }}1\in A\ ,\\0\ ,&\mathrm {sonst} \ .\end{cases}}}

für A B ( [ 0 , 1 ] ) {\displaystyle A\in {\mathcal {B}}([0,1])} . Gegeben seien zwei Zufallsvariablen von ( [ 0 , 1 ] , B ( [ 0 , 1 ] ) , δ 1 ) {\displaystyle ([0,1],{\mathcal {B}}([0,1]),\delta _{1})} nach ( [ 0 , 1 ] , B ( [ 0 , 1 ] ) ) {\displaystyle ([0,1],{\mathcal {B}}([0,1]))} definiert durch

X ( ω ) := { 1 falls  ω = 1 0 sonst {\displaystyle X(\omega ):={\begin{cases}1&{\text{falls }}\omega =1\\0&{\text{sonst}}\end{cases}}} .

und

Y ( ω ) := 0  für alle  ω [ 0 , 1 ] {\displaystyle Y(\omega ):=0{\text{ für alle }}\omega \in [0,1]}

Eine Folge von Zufallsvariablen sei definiert durch

X n ( ω ) := ( 1 1 n ) χ [ 0 , 1 ) ( ω ) {\displaystyle X_{n}(\omega ):=\left(1-{\tfrac {1}{n}}\right)\chi _{[0,1)}(\omega )} .

Dabei bezeichnet χ {\displaystyle \chi } die charakteristische Funktion. Die Folge von Zufallsvariablen ( X n ) n N {\displaystyle (X_{n})_{n\in N}} konvergiert für n {\displaystyle n} gegen unendlich für jedes ω [ 0 , 1 ) {\displaystyle \omega \in [0,1)} gegen 1 und für ω = 1 {\displaystyle \omega =1} gegen 0. Demnach ist

{ ω Ω | lim n X n ( ω ) = X ( ω ) } = {\displaystyle \{\omega \in \Omega |\lim _{n\to \infty }X_{n}(\omega )=X(\omega )\}=\emptyset } ,

daher konvergieren die X n {\displaystyle X_{n}} nicht fast sicher gegen X ( ω ) {\displaystyle X(\omega )} , da für jedes Wahrscheinlichkeitsmaß P ( ) = 0 {\displaystyle P(\emptyset )=0} gilt. Es ist aber

{ ω Ω : lim n X n ( ω ) = Y ( ω ) } = { 1 } {\displaystyle \{\omega \in \Omega \colon \lim _{n\to \infty }X_{n}(\omega )=Y(\omega )\}=\{1\}}

Da aber δ 1 ( { 1 } ) = 1 {\displaystyle \delta _{1}(\{1\})=1} ist, konvergieren die X n {\displaystyle X_{n}} fast sicher gegen Y {\displaystyle Y} , obwohl die punktweise Konvergenz nur in einem einzigen Punkt stattfindet. Dieser wird aber durch das Diracmaß maximal gewichtet.

Eigenschaften

Die fast sichere Konvergenz der Folge ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} ist äquivalent dazu, dass

P ( m = n { ω Ω | | X m X | ϵ } ) n 0 {\displaystyle P\left(\bigcup _{m=n}^{\infty }\left\{\omega \in \Omega \,|\,\vert X_{m}-X\vert \geq \epsilon \right\}\right){\xrightarrow[{}]{n\to \infty }}0}

gilt. Mit der Bonferroni-Ungleichung erhält man dann das folgende hinreichende Kriterium für die fast sichere Konvergenz:

m = 1 P ( | X X m | ϵ ) < {\displaystyle \sum _{m=1}^{\infty }P(|X-X_{m}|\geq \epsilon )\quad <\infty }

für alle ϵ > 0 {\displaystyle \epsilon >0} . Die Terme der Form P ( | X X m | ϵ ) {\displaystyle P(|X-X_{m}|\geq \epsilon )} können dann beispielsweise mit der Markow-Ungleichung abgeschätzt werden.

Beziehung zu anderen Konvergenzarten der Stochastik

Allgemein gelten für die Konvergenzbegriffe der Wahrscheinlichkeitstheorie die Implikationen

Fast sichere Konvergenz Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung {\displaystyle {\begin{matrix}{\text{Fast sichere}}\\{\text{Konvergenz}}\end{matrix}}\implies {\begin{matrix}{\text{Konvergenz in}}\\{\text{Wahrscheinlichkeit}}\end{matrix}}\implies {\begin{matrix}{\text{Konvergenz in}}\\{\text{Verteilung}}\end{matrix}}}

und

Konvergenz im p-ten Mittel Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung {\displaystyle {\begin{matrix}{\text{Konvergenz im}}\\{\text{p-ten Mittel}}\end{matrix}}\implies {\begin{matrix}{\text{Konvergenz in}}\\{\text{Wahrscheinlichkeit}}\end{matrix}}\implies {\begin{matrix}{\text{Konvergenz in}}\\{\text{Verteilung}}\end{matrix}}} .

Die Fast sichere Konvergenz ist also einer der starken Konvergenzbegriffe der Wahrscheinlichkeitstheorie. In den unten stehenden Abschnitten sind die Beziehungen zu den andere Konvergenzarten genauer ausgeführt.

Konvergenz in Wahrscheinlichkeit

Aus der fast sicheren Konvergenz folgt die Konvergenz in Wahrscheinlichkeit. Um dies zu sehen, definiert man die Mengen

B N := { ω Ω : | X n X | < ϵ n N }  und  B := i = 1 B i {\displaystyle B_{N}:=\{\omega \in \Omega \colon \vert X_{n}-X\vert <\epsilon \quad \forall n\geq N\}{\text{ und }}B:=\bigcup _{i=1}^{\infty }B_{i}} .

Die B N {\displaystyle B_{N}} bilden eine monoton wachsende Mengenfolge, und die Menge B {\displaystyle B} enthält die Menge

A := { ω Ω : lim n X n = X } {\displaystyle A:=\{\omega \in \Omega \colon \lim _{n\to \infty }X_{n}=X\}}

der Elemente, auf denen die Folge punktweise konvergiert. Nach Voraussetzung ist P ( A ) = 1 {\displaystyle P(A)=1} und damit auch P ( B ) = 1 {\displaystyle P(B)=1} und demnach lim N P ( B N ) = 1 {\displaystyle \lim _{N\to \infty }P(B_{N})=1} . Durch Komplementbildung folgt dann die Aussage.

Die Umkehrung gilt aber im Allgemeinen nicht. Ein Beispiel hierfür ist die Folge von unabhängigen Bernoulli-verteilten Zufallsvariablen zum Parameter 1 n {\displaystyle {\tfrac {1}{n}}} , also X n Ber 1 n {\displaystyle X_{n}\sim \operatorname {Ber} _{\frac {1}{n}}} . Dann ist

lim n P ( | X n | ϵ ) = 0 {\displaystyle \lim _{n\to \infty }P(|X_{n}|\geq \epsilon )=0}

für alle ϵ > 0 {\displaystyle \epsilon >0} und somit konvergiert die Folge in Wahrscheinlichkeit gegen 0. Die Folge konvergiert aber nicht fast sicher, man zeigt dies mit dem hinreichenden Kriterium für fast sichere Konvergenz und dem Borel-Cantelli-Lemma.

Bedingungen, unter denen aus der Konvergenz in Wahrscheinlichkeit die fast sichere Konvergenz folgt sind:

  • Die Konvergenzgeschwindigkeit der Konvergenz in Wahrscheinlichkeit ist ausreichend schnell, sprich es gilt
i = 1 P ( | X i X | ϵ ) < {\displaystyle \sum _{i=1}^{\infty }P(\vert X_{i}-X\vert \geq \epsilon )<\infty } .
  • Der Grundraum Ω {\displaystyle \Omega } lässt sich als abzählbare Vereinigung von μ-Atomen darstellen. Dies ist bei Wahrscheinlichkeitsräumen mit höchstens abzählbarer Grundmenge immer möglich.
  • Ist die Folge der Zufallsvariablen fast sicher streng monoton fallend und konvergiert in Wahrscheinlichkeit gegen 0, so konvergiert die Folge fast sicher gegen 0.

Allgemeiner besitzt jede in Wahrscheinlichkeit konvergierende Folge eine Teilfolge, die fast sicher konvergiert.

Konvergenz in Verteilung

Die Skorochod-Darstellung trifft eine Aussage darüber, unter welchen Bedingungen aus der Konvergenz in Verteilung auf die fast sichere Konvergenz geschlossen werden kann.

Konvergenz im p-ten Mittel

Im Allgemeinen folgt aus der Konvergenz im p-ten Mittel nicht die fast sichere Konvergenz. Betrachtet man beispielsweise eine Folge von Zufallsvariablen mit

P ( X n = 0 ) = 1 P ( X n = 1 ) = 1 1 n {\displaystyle P(X_{n}=0)=1-P(X_{n}=1)=1-{\tfrac {1}{n}}} ,

so ist für alle p > 0 {\displaystyle p>0}

E ( | X n | p ) = P ( X n = 1 ) = 1 n {\displaystyle \operatorname {E} (|X_{n}|^{p})=P(X_{n}=1)={\tfrac {1}{n}}} ,

was gegen null konvergiert. Somit konvergieren die Zufallsvariablen im p {\displaystyle p} -ten Mittel gegen 0. Jedoch kann die Abhängigkeits-Struktur der X n {\displaystyle X_{n}} untereinander (das heißt das Zusammenspiel der Träger der X n {\displaystyle X_{n}} in Ω {\displaystyle \Omega } ) so gestaltet sein, dass die X n {\displaystyle X_{n}} nicht fast sicher konvergieren. Ein ähnliches aber detaillierteres und konkreteres Beispiel ist im Artikel Konvergenz (Stochastik) zu finden.

Konvergiert allerdings eine Folge von Zufallsvariablen ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} im p-ten Mittel gegen X {\displaystyle X} und gilt

n = 1 E ( | X n X | p ) < {\displaystyle \sum _{n=1}^{\infty }\operatorname {E} (|X_{n}-X|^{p})<\infty } ,

dann konvergiert die Folge auch fast sicher gegen X {\displaystyle X} . Die Konvergenz muss also „schnell genug“ sein. (Alternativ kann man auch nutzen, dass bei Gültigkeit des Konvergenzsatz von Vitali die Konvergenz nach Wahrscheinlichkeit und die fast sichere Konvergenz zusammenfallen. Sind somit die Voraussetzungen dieses Satzes erfüllt, so folgt aus Konvergenz im p {\displaystyle p} -ten Mittel die fast sichere Konvergenz, da aus der Konvergenz im p {\displaystyle p} -ten Mittel automatisch die Konvergenz in Wahrscheinlichkeit folgt.)

Umgekehrt folgt aus der fast sicheren Konvergenz auch nicht die Konvergenz im p {\displaystyle p} -ten Mittel. Betrachtet man beispielsweise auf dem Wahrscheinlichkeitsraum ( [ 0 , 1 ] , B ( [ 0 , 1 ] ) , U [ 0 , 1 ] ) {\displaystyle ([0,1],{\mathcal {B}}([0,1]),{\mathcal {U}}_{[0,1]})} die Zufallsvariablen

X n ( ω ) = n 2 1 [ 0 , 1 n ] ( ω ) {\displaystyle X_{n}(\omega )=n^{2}\cdot \mathbf {1} _{\left[0,{\tfrac {1}{n}}\right]}(\omega )} ,

so konvergiert diese für ω ( 0 , 1 ] {\displaystyle \omega \in (0,1]} punktweise gegen 0 und damit auf ganz [ 0 , 1 ] {\displaystyle [0,1]} fast sicher gegen 0 ( U [ 0 , 1 ] {\displaystyle {\mathcal {U}}_{[0,1]}} bezeichnet hier die Gleichverteilung auf [ 0 , 1 ] {\displaystyle [0,1]} ).

Es ist aber E ( | X n | p ) = n 2 p 1 {\displaystyle \operatorname {E} (|X_{n}|^{p})=n^{2p-1}} und die Folge ist demnach unbeschränkt für alle p 1 {\displaystyle p\geq 1} , kann also nicht konvergieren.

Allerdings liefert der Satz von der majorisierten Konvergenz ein Kriterium, unter dem diese Folgerung korrekt ist. Konvergieren die X n {\displaystyle X_{n}} fast sicher und existiert eine Zufallsvariable Y {\displaystyle Y} mit E ( | Y | p ) < {\displaystyle \operatorname {E} (\vert Y\vert ^{p})<\infty } und ist X n Y {\displaystyle X_{n}\leq Y} fast sicher, so konvergieren die X n {\displaystyle X_{n}} im p {\displaystyle p} -ten Mittel gegen X {\displaystyle X} und auch für X {\displaystyle X} gilt E ( | X | p ) < {\displaystyle \operatorname {E} (\vert X\vert ^{p})<\infty } .

Literatur

  • Christian Hesse: Angewandte Wahrscheinlichkeitstheorie. 1. Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03183-2, S. 216–238, doi:10.1007/978-3-663-01244-3. 
  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.