Twierdzenie Skorochoda

Twierdzenie Skorochoda – twierdzenie w teorii prawdopodobieństwa, które mówi, że ciąg słabo zbieżnych miar probabilistycznych, którego granica zachowuje się odpowiednio dobrze, może być przedstawiony jako ciąg rozkładów zbieżnych prawie na pewno zmiennych losowych, określonych na wspólnej przestrzeni probabilistycznej. Jego nazwa pochodzi od nazwiska sowieckiego matematyka Anatolija Skorochoda.

Treść twierdzenia

Niech ( μ n ) n N {\displaystyle (\mu _{n})_{n\in \mathbb {N} }} będzie ciągiem miar probabilistycznych w przestrzeni metrycznej S {\displaystyle S} takim, że μ n {\displaystyle \mu _{n}} zbiega słabo do pewnej miary μ {\displaystyle \mu } na S {\displaystyle S} przy n . {\displaystyle n\to \infty .} Ponadto załóżmy, że nośnik μ {\displaystyle \mu } jest ośrodkowy. Wówczas istnieje ciąg zmiennych losowych ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} określonych na przestrzeni probabilistycznej ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},\mathbf {P} )} o wartościach w S {\displaystyle S} takich, że μ n {\displaystyle \mu _{n}} jest rozkładem zmiennej X n {\displaystyle X_{n}} dla każdego n {\displaystyle n} oraz X n {\displaystyle X_{n}} zbiegają prawie na pewno do zmiennej X {\displaystyle X} o rozkładzie μ . {\displaystyle \mu .}

Wersja twierdzenia dla ( R , B ( R ) ) {\displaystyle (\mathbb {R} ,{\mathfrak {B}}(\mathbb {R} ))}

Jeśli ( μ n ) n N {\displaystyle (\mu _{n})_{n\in \mathbb {N} }} jest ciągiem miar probabilistycznych na ( R , B ( R ) ) , {\displaystyle (\mathbb {R} ,{\mathfrak {B}}(\mathbb {R} )),} zbieżnym słabo do miary μ , {\displaystyle \mu ,} to istnieją zmienne losowe X n {\displaystyle X_{n}} i X {\displaystyle X} określone na przedziale ( 0 , 1 ) {\displaystyle (0,1)} z σ-ciałem zbiorów borelowskich i miarą Lebesgue′a o rozkładach odpowiednio μ n {\displaystyle \mu _{n}} i μ , {\displaystyle \mu ,} i takich, że X n ( ω ) X ( ω ) {\displaystyle X_{n}(\omega )\to X(\omega )} dla każdego ω ( 0 , 1 ) . {\displaystyle \omega \in (0,1).}

Dowód[1]:

Rozważmy dystrybuanty F n {\displaystyle F_{n}} oraz F {\displaystyle F} odpowiadające miarom μ n {\displaystyle \mu _{n}} i μ . {\displaystyle \mu .} Dla 0 < ω < 1 {\displaystyle 0<\omega <1} określmy X n ( ω ) = inf { x : ω F n ( x ) } {\displaystyle X_{n}(\omega )=\inf\{x:\omega \leqslant F_{n}(x)\}} i analogicznie dla zmiennej X . {\displaystyle X.} Ponieważ ω F n ( x ) {\displaystyle \omega \leqslant F_{n}(x)} wtedy i tylko wtedy, gdy X n ( ω ) x , {\displaystyle X_{n}(\omega )\leqslant x,} to

P { ω : X n ( ω ) x } = P { ω : ω F n ( x ) } = F n ( x ) . {\displaystyle \mathbb {P} \{\omega :X_{n}(\omega )\leqslant x\}=\mathbb {P} \{\omega :\omega \leqslant F_{n}(x)\}=F_{n}(x).}

Zatem zmienna losowa X n {\displaystyle X_{n}} ma dystrybuantę F n ; {\displaystyle F_{n};} analogicznie zmienna X {\displaystyle X} ma dystrybuantę F . {\displaystyle F.}

Teraz pozostaje pokazać, że X n ( ω ) X ( ω ) . {\displaystyle X_{n}(\omega )\to X(\omega ).} Dla ω ( 0 , 1 ) {\displaystyle \omega \in (0,1)} i danego ε {\displaystyle \varepsilon } wybierzmy takie x , {\displaystyle x,} że X ( ω ) ε < x < X ( ω ) {\displaystyle X(\omega )-\varepsilon <x<X(\omega )} oraz μ { x } = 0. {\displaystyle \mu \{x\}=0.} Wówczas F ( x ) < ω {\displaystyle F(x)<\omega } oraz ze zbieżności F n F {\displaystyle F_{n}\to F} wynika, że dla dostatecznie dużego n {\displaystyle n} zachodzi F n ( x ) < ω , {\displaystyle F_{n}(x)<\omega ,} a stąd X ( ω ) ε < x < X n ( ω ) . {\displaystyle X(\omega )-\varepsilon <x<X_{n}(\omega ).} Zatem lim inf X n ( ω ) X ( ω ) . {\displaystyle \liminf X_{n}(\omega )\geqslant X(\omega ).} Jeśli ω < ω {\displaystyle \omega <\omega '} i ε {\displaystyle \varepsilon } jest dodatnie, to wybierzmy takie y , {\displaystyle y,} dla którego X ( ω ) < y < X ( ω ) + ε {\displaystyle X(\omega ')<y<X(\omega ')+\varepsilon } i μ { y } = 0. {\displaystyle \mu \{y\}=0.} Ponieważ ω < ω < F ( X ( ω ) ) < F ( y ) , {\displaystyle \omega <\omega '<F(X(\omega '))<F(y),} to ω F n ( y ) {\displaystyle \omega \leqslant F_{n}(y)} dla dostatecznie dużych n {\displaystyle n} i stąd X n ( ω ) y < X ( ω ) + ε . {\displaystyle X_{n}(\omega )\leqslant y<X(\omega ')+\varepsilon .} Tak więc lim sup X n ( ω ) X ( ω ) , {\displaystyle \limsup X_{n}(\omega )\leqslant X(\omega '),} o ile ω < ω . {\displaystyle \omega <\omega '.} Zatem jeśli X {\displaystyle X} jest ciągła w ω , {\displaystyle \omega ,} to X n ( ω ) X ( ω ) . {\displaystyle X_{n}(\omega )\to X(\omega ).}

Ponieważ zmienna losowa X {\displaystyle X} jest niemalejąca na przedziale ( 0 , 1 ) , {\displaystyle (0,1),} to może ona mieć co najwyżej przeliczalnie wiele punktów nieciągłości. W punktach tych przyjmijmy X n ( ω ) = X ( ω ) = 0. {\displaystyle X_{n}(\omega )=X(\omega )=0.} Wówczas istotnie X n ( ω ) X ( ω ) {\displaystyle X_{n}(\omega )\to X(\omega )} dla każdego ω , {\displaystyle \omega ,} a ponieważ zmienne X n {\displaystyle X_{n}} i X {\displaystyle X} zostały zmienione na zbiorze miary 0, to ich rozkłady są równe μ n {\displaystyle \mu _{n}} i μ . {\displaystyle \mu .}

Zobacz też

Przypisy

Bibliografia

  • Patrick Billingsley: Prawdopodobieństwo i miara. Wyd. II. Warszawa: Wydawnictwo Naukowe PWN, 2021, s. 328. ISBN 978-83-01-21679-5.
  • Patrick Billingsley: Convergence of Probability Measures. Nowy Jork: John Wiley & Sons, Inc., 1999. ISBN 0-471-19745-9.