大数定律是叙述随机变量序列的前一些项的算术平均值在某种条件下收敛到这些项的均值的算术
平均值,它揭示了随机变量的收敛规律
切比雪夫大数定律
设随机变量 X 具有数学期望 E(X)=μ, 方差 D(X)=σ2, 且E(x)和D(x)存在且有界, 则对于任意正数 ε, 我们有不等式
P(∣X−μ∣⩾ε)⩽ε2σ2
知道随机变量总体的均值和方差时, 可用切比雪夫不等式来估算一定条件下的概率
设 X1,X2,⋯Xn,⋯ 是相互独立的随机变量, 且具有有限的数学期望 E(X1),E(X2),⋯,E(Xn),⋯和有限的方差 D(X1),D(X2),⋯,D(Xn),⋯ 。 若存在常数 C 使 D(Xk)⩽C,k=1,2,⋯ (即方差一致有界), 有
n→∞limP{n1k=1∑nXk−n1k=1∑nE(Xk)⩾ε}=0
其证明会用到马尔可夫大数定律
马尔可夫大数定律: 设随机变量 {Xn} 满足 n21D(∑k=1nXk)→0(n→∞), 则{Xn} 满足马尔可夫大数定律
切比雪夫大数定律揭示了样本均值和真实期望的关系, 将该公式应用于抽样调查,就会有如下结论:随着样本容量n的增加,样本平均数将接近于总体平均数。从而为统计推断中依据样本平均数估计总体平均数提供了理论依据。
独立同分布大数定律
独立同分布大数定律也叫弱大数定律或者辛钦大数定律
设 X1,X2,⋯ 是相互独立, 服从同一分布的随机变量序列, 且具有数学期望 E(Xk)=μ(k=1,2,⋯)。 做前n个变量的算术平均 n1∑k=1nXk (因为是独立同分布的,所以所有的随机变量的期望是一样的), 则对于任意 ε>0, 有
n→∞limP{n1k=1∑nXk−μ⩾ε}=0
辛钦大 数定律揭示了算术平均值和数学期望的关系。换言之,n1∑k=1nXk⟶Pμ。独立同分布大数定律给出了频率稳定性的严格数学定义, 即大量独立随机观测的平均值依概率收敛于分布的期望值。因此, 对于一些具有随机性的测量结果,以多次测量的平均值作为测量值会更加准确。
伯努利大数定律
设 fA 是 n 次独立重复试验中事件 A 发生的次数,p 是事件 A 在每次试验中发生的概率,则对于任意正数 ε>0,有
n→∞limP{nfA−p⩾ε}=0
换言之, 事件 A 发生的频率与 A 发生的概率 p 的偏差小于任意正数 ε 的概率趋向于 1, nfA⟶Pp, 这从理论上说明了频率的稳定性
伯努利大数定律是300年前瑞士数学家伯努利潜心研究20年证明出来的,是人类历史上第一个严格证明的大数定律。它是辛钦大数定律的特殊情况,不过由于它有一定的历史意义并且二项分布的大数定律在日常生活中最为常见,所以编教材的人喜欢把这个大数定律单独列出来。
切比雪夫大数定律和辛钦大数定律针对的是两种不同的情况,谁也不是谁的特例。切比雪夫大数定律说的是一列独立变量(可以不同分布)的均值收敛到一个常数,但前提是每个变量的期望和方差均存在且有限,并且满足方差的平均值是样本数n的高阶无穷小这一额外条件。
辛钦大数定律是说一列独立同分布的随机变量的均值收敛到一个常数,条件是分布的绝对期望存在且有限就够了。对两个大数定律做一总结,就是切比雪夫大数定律不要求随机变量有相同分布但是成立的条件更加严格,辛钦大数定律要求同分布不过是在比较弱的条件下就成立。
| 大数定律 | 分布 | 期望 | 方差 | 用途 |
|---|
| 切比雪夫 | 独立 | 存在且有界 | 存在且有界 | 估算期望 |
| 辛钦 | 独立同分布 | 存在 | 没有要求 | 估算期望 |
| 伯努利 | 二项分布 | 存在 | 没有要求 | 估算概率 |
伯努利大数定律实际上是辛钦的弱化, 限定在了 0-1 二项分布中