概率论中有若干关于随机变量收敛(Convergence of random variables)的定义。研究一列随机变量是否会收敛到某个极限随机变量是概率论中的重要内容,在统计概率和随机过程中都有应用。在更广泛的数学领域中,随机变量的收敛被称为随机收敛,表示一系列本质上随机不可预测的事件所发生的模式可以在样本数量足够大的时候得到合理可靠的预测。各种不同的收敛定义实际上是表示预测时不同的刻画方式。
正如一个数列可能收敛到某个极限量,一列函数可能收敛到某个极限函数一样,随机收敛指的是一系列随机变量
在n趋向于无穷大时,会越来越接近某个固定的极限。这个极限可能是指:
趋向某个固定的数;
趋向某个确定函数的输出值;
的概率分布越来越接近某个特定的随机变量的概率分布;
和某个特定随机变量的差别的平均值(数学期望值)趋向于0;
和某个特定随机变量的差别的方差趋向于0。
等等。这些不同的极限的定义,可以严格地写成不同的收敛方式的定义。
依概率1收敛又称为几乎处处收敛,其定义接近于函数逐点收敛的定义。事实上,由于随机变量的本质是由样本空间
到取值空间
上的函数。因此,给定一个概率空间
中的一列 随机变量
,考虑事件
。如果存在一个随机变量
,使得事件
的概率为1,那么就称随机变量序列
依概率1收敛到
(或称
几乎处处收敛到
),记作:
或 ![{\displaystyle \mathbb {P} \left(\lim _{n\to \infty }X_{n}=X\right)=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48b928716b8eb13f8dc0f1d8772ab02904c65bd5)
当取值空间
是一般的实数空间
时,依概率1收敛的意义是:
- 对任意的正实数
,![{\displaystyle \mathbb {P} {\Big (}\liminf {\big \{}\omega \in \Omega :|X_{n}(\omega )-X(\omega )|<\varepsilon {\big \}}{\Big )}=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a8d0f870ca7e21d5e603d0f95e1a3c3886b937d8)
当空间
是度量空间 (S, d) 的时候,依概率1收敛的意义是:
![{\displaystyle \mathbb {P} {\Big (}\omega \in \Omega :\,d{\big (}X_{n}(\omega ),X(\omega ){\big )}\,{\xrightarrow[{n\to \infty }]{\,}}\,0{\Big )}=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3aec561924f9df4cb04857e659dbf57ebeac4001)
设
是一个随机变量序列,
是一个随机变量。如果对于任意的正实数
,都有:
![{\displaystyle \lim _{n\to \infty }\mathbb {P} (|X-X_{n}|\geq \epsilon )=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8c5045bf502de0a6ab0f6d020f23ba26188ed0c3)
那么称序列
依概率收敛到
,记作:
如果
的取值空间是一个可分度量空间(S, d),那么依概率收敛的定义为[1]:
![{\displaystyle \mathbb {P} {\big (}d(X_{n},X)\geq \varepsilon {\big )}\to 0,\quad \forall \varepsilon >0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a4a4e8b368fe6ec34e66069804304eab6af4154e)
依概率收敛和依概率1收敛的定义有相似之处,但本质上,依概率1收敛是比依概率收敛更“强”的收敛性质。如果一列随机变量依概率1收敛到某个极限,那么它必然也依概率收敛到这个极限,但反之则不然。一个实数上的例子是:设概率空间
是区间
上的一个连续型均匀分布
。一个随机变量序列
定义为:
![{\displaystyle X_{1}=\mathbf {1} _{\left\{\omega \in [0,1)\right\}}=\mathbf {1} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/fe1db4b80a87e97923029890a6b6b9f1ec839f00)
![{\displaystyle X_{2}=\mathbf {1} _{\left\{\omega \in [0,{\frac {1}{2}})\right\}},\qquad X_{3}=\mathbf {1} _{\left\{\omega \in [{\frac {1}{2}},1)\right\}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/beb5c4f3bf037390b39217d2dd66fa39022b31ca)
![{\displaystyle X_{4}=\mathbf {1} _{\left\{\omega \in [0,{\frac {1}{4}})\right\}},\qquad X_{5}=\mathbf {1} _{\left\{\omega \in [{\frac {1}{4}},{\frac {1}{2}})\right\}},\qquad X_{6}=\mathbf {1} _{\left\{\omega \in [{\frac {1}{2}},{\frac {3}{4}})\right\}},\qquad X_{7}=\mathbf {1} _{\left\{\omega \in [{\frac {3}{4}},1)\right\}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2939f8350f8f3b6d18c11c7fd96030af5ea241ee)
![{\displaystyle \cdots \;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d34d3ab143e4488b48c9dd785e3ef88e6af4c792)
![{\displaystyle \forall (k,m)\in \mathbb {N} ,\,\,0\leqslant k\leqslant 2^{m}-1,\,\,X_{2^{m}+k}=\mathbf {1} _{\left\{\omega \in [{\frac {k}{2^{m}}},{\frac {k+1}{2^{m}}})\right\}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e4d67b40b09a07d7e596451e48f1abaf2bced873)
由于
![{\displaystyle \forall 2^{m}\leqslant n\leqslant 2^{m+1}-1,\,\,\mathbb {P} \left(|X_{n}-0|\geqslant \varepsilon \right)={\frac {1}{2^{m}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a807d557bc130a84fa357e397e30b0e81e98b21)
所以
,
另一方面,考虑
到
这一组随机变量,它们取值为1的集合的并集恰好是总区间,因此对每一个
,总会有
到
之间的某个变量
,使得
![{\displaystyle X_{2^{m}+k_{m}}(\omega )=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b454f1937618b1331ba2d08b7de7683999c5c9ba)
所以,对任意一个
,
,
即是说,
并不依概率1收敛到0。从例子中可以看到,依概率收敛比依概率1收敛更为宽松的地方是:当n趋于无穷大的时候,只要偏离极限函数的
(即是集合
中的
)“足够少”,就能使得依概率收敛成立了,这些
的集合可以随着n不同而不同;而依概率1收敛则要求
的集合固定地缩减至一个概率为0的集合。因此,依概率1收敛要比依概率收敛更为严格。
- 依概率收敛蕴含依分布收敛:一个依概率收敛的随机变量序列必然也依分布收敛到同一个极限。
- 在离散概率空间中,依概率收敛和依概率1收敛是等价的。
- 依分布收敛蕴含依概率收敛当且仅当依分布收敛的极限是一个常数。
- 连续映射定理说明:对任意连续函数
,如果随机变量序列
依概率收敛到
,那么序列
依概率收敛到
- 依概率收敛定义了确定概率空间上的随机变量空间上的一个拓扑。这个拓扑可以用樊𰋀度量进行度量化[2]。
![{\displaystyle d(X,Y)=\inf \!{\big \{}\varepsilon >0:\ \Pr {\big (}|X-Y|>\varepsilon {\big )}\leq \varepsilon {\big \}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1e5ff56411196b5dc0fa165973755832cf91791e)
平方平均收敛与
收敛
[编辑]
另一种收敛的定义与测度的积分有关。在积分理论中,如果两个函数
和
满足
,那么这两个函数在关于测度
的平方可积空间中相等。随机变量的平方平均收敛与此相似:如果对平方可积的随机变量序列
,存在随机变量
,使得
,那么就说序列
平方平均收敛到
,记作:
由于
空间是完备的,极限
也一定平方可积。
对于更一般的
空间,也有类似的定义:如果对
空间中的随机变量序列
,存在
中的随机变量
,使得
,那么就说序列
依
收敛到
,记作:
当常数
时,也称为平均收敛。
依分布收敛是最宽松的收敛方式之一。这种收敛不要求查看每个
,只要求序列的分布趋向于某个极限。直觉上,一个随机变量序列
依分布收敛到某个随机变量
,如果:
- 对所有的
,都有
。
更严格的定义是探讨随机变量
的累积分布函数
。设有实值的随机变量序列
和某个随机变量
(其累积分布函数为
),如果对
的每个连续点
,都有
,那么就说
依分布收敛到某个随机变量
。记作:
,
或
由于依分布收敛只和随机变量的分布相关,所以也可以称一系列随机变量(依分布)收敛于某个分布。设
是极限
的分布,那么依分布收敛也可以记作:
或
例如一个随机变量序列
依分布收敛到标准正态分布,就可以记作:
![{\displaystyle X_{n}\ {\xrightarrow {d}}\ {\mathcal {N}}(0,1).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2b61e9035efae8ef8fd1f20a2463492e33b02017)
- 作为最弱的收敛方式之一,依分布收敛无法推出其它的收敛方式。对于存在概率密度函數的连续型随机变量序列,依分布收敛并不能推出其概率密度函数也同样收敛。例如对于概率密度函數为
的随机变量序列,其依分布收敛到均匀分布的随机变量,但其概率密度函数不收敛[3]。
- 依分布收敛的等价定义:一个随机变量序列
依分布收敛到某个随机变量
和以下命题中的任意一个等价:
- 对所有的有界连续函数
,都有:
;
- 对所有具有利普希茨連續性质的函数
,都有:
;
- 对所有上有界的上半连续函数
,都有:
;
- 对所有下有界的下半连续函数
,都有:
;
- 对所有闭集
,都有:
;
- 对所有开集
,都有:
;
- 对关于
的所有连续集
,都有:
。
- 连续映射定理说明,对于连续函数g(·),如果随机变量序列
依分布收敛到随机变量
,那么
也依分布收敛到随机变量
。
- 列维连续性定理: 随机变量序列
依分布收敛到某个随机变量
当且仅当对应的特征函数序列
逐点收敛到某个在0处连续的函数
(此时随机变量
的分布为
)。
- 列维-普罗科洛夫度量是依分布收敛的度量化结果。
各个收敛的定义有强弱之分。一个收敛性强于另一个是指从前者可以推出后者。例如依概率收敛强于依分布收敛,即是说如果一列随机变量依概率收敛到某个极限,那么必定也依分布收敛到这个极限。具体来说,收敛性的强弱关系可以用下图来表示:
![{\displaystyle {\begin{matrix}{\xrightarrow {L^{r}}}&{\underset {r>s\geq 1}{\Rightarrow }}&{\xrightarrow {L^{s}}}&&\\&&\Downarrow &&\\{\xrightarrow {a.s.}}&\Rightarrow &{\xrightarrow {\ p\ }}&\Rightarrow &{\xrightarrow {\ d\ }}\end{matrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/46c94668666d71613847f157ca27de5b4e938023)
-
依概率1收敛可以推出依概率收敛[4]:
![{\displaystyle X_{n}\ {\xrightarrow {a.s.}}\ X\quad \Rightarrow \quad X_{n}\ {\xrightarrow {p}}\ X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/befa3e7465194743bbfa5dbfa755c7a222b83291)
-
依概率收敛可以推出存在依概率1收敛的子列
[5]:
![{\displaystyle X_{n}\ {\xrightarrow {p}}\ X\quad \Rightarrow \quad X_{k_{n}}\ {\xrightarrow {a.s.}}\ X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3708fd0c79ea04a6377d840ccbc11519b1cd4eec)
-
依概率收敛可以推出依分布收敛[4]:
![{\displaystyle X_{n}\ {\xrightarrow {p}}\ X\quad \Rightarrow \quad X_{n}\ {\xrightarrow {d}}\ X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/35f70199a56304b5d85bea4150c835437d40e1d1)
-
对任意的
,
-收敛可以推出依概率收敛:
![{\displaystyle X_{n}\ {\xrightarrow {L^{r}}}\ X\quad \Rightarrow \quad X_{n}\ {\xrightarrow {p}}\ X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c51ae02a94a507a456c207e0bdb0b0c39fa3c53)
-
如果
,那么
-收敛可以推出
-收敛:
![{\displaystyle X_{n}\ {\xrightarrow {L^{r}}}\ X\quad \Rightarrow \quad X_{n}\ {\xrightarrow {L^{s}}}\ X,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9fc95bec3d7c36bc6f274b52d1a514f440c14824)
-
如果序列
依分布收敛到常数c,那么它也依概率收敛到常数c[4]:
![{\displaystyle X_{n}\ {\xrightarrow {d}}\ c\quad \Rightarrow \quad X_{n}\ {\xrightarrow {p}}\ c,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/54457ccb3a22c14addf745b415e1541c4b4276c1)
-
如果序列
依分布收敛到随机变量
,并且
和
的差依概率收敛到0,那么
也依分布收敛到随机变量
[4]:
![{\displaystyle X_{n}\ {\xrightarrow {d}}\ X,\ \ |X_{n}-Y_{n}|\ {\xrightarrow {p}}\ 0\ \quad \Rightarrow \quad Y_{n}\ {\xrightarrow {d}}\ X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ae3c19fe6cf2fabed7e824b8dc1b07764bc65a5)
-
如果序列
依分布收敛到随机变量
,并且 序列
依分布收敛到常数c,那么向量列
依分布收敛到随机变量
[4]:
![{\displaystyle X_{n}\ {\xrightarrow {d}}\ X,\ \ Y_{n}\ {\xrightarrow {d}}\ c\ \quad \Rightarrow \quad (X_{n},Y_{n})\ {\xrightarrow {d}}\ (X,c)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/699915ddaef3c4c538bfd04896c4e18f7acb9d9c)
- Bickel, Peter J.; Klaassen, Chris A.J.; Ritov, Ya’acov; Wellner, Jon A. Efficient and adaptive estimation for semiparametric models. New York: Springer-Verlag. 1998. ISBN 0387984739.
- Billingsley, Patrick. Probability and Measure. Wiley Series in Probability and Mathematical Statistics 2nd. Wiley. 1986.
- Billingsley, Patrick. Convergence of probability measures 2nd. John Wiley & Sons. 1999: 1–28. ISBN 0471197459.
- Dudley, R.M. Real analysis and probability. Cambridge, UK: Cambridge University Press. 2002. ISBN 052180972X.
- Grimmett, G.R.; Stirzaker, D.R. Probability and random processes 2nd. Clarendon Press, Oxford. 1992: 271–285. ISBN 0-19-853665-8.
- Jacobsen, M. Videregående Sandsynlighedsregning (Advanced Probability Theory) 3rd. HCØ-tryk, Copenhagen. 1992: 18–20. ISBN 87-91180-71-6.
- Ledoux, Michel; Talagrand, Michel. Probability in Banach spaces. Berlin: Springer-Verlag. 1991: xii+480. ISBN 3-540-52013-9. MR 1102015.
- Romano, Joseph P.; Siegel, Andrew F. Counterexamples in probability and statistics. Great Britain: Chapman & Hall. 1985. ISBN 0412989018.
- van der Vaart, Aad W.; Wellner, Jon A. Weak convergence and empirical processes. New York: Springer-Verlag. 1996. ISBN 0387946403.
- van der Vaart, Aad W. Asymptotic statistics. New York: Cambridge University Press. 1998. ISBN 9780521496032.
- Williams, D. Probability with Martingales. Cambridge University Press. 1991. ISBN 0521406056.
- Wong, E.; Hájek, B. Stochastic Processes in Engineering Systems. New York: Springer–Verlag. 1985.