不等式(一)-Markov与Chebyshev不等式

有些量很难计算,不等式可以对这些量给出一个界。例如,我们没有足够的信息来计算所需的量(例如事件的概率或随机变量的预期值);又或者,问题可能很复杂,精确计算可能非常困难;还有些情况,我们可能希望提供一个通用的、适用于广泛问题的结果。
本节将学习两个不等式:Markov与Chebyshev不等式。

直观理解Markov不等式

我们凭直觉大致可以理解,观察值不会偏离期望值太多。Markov不等式和Chebyshev不等式把这种直觉放在坚实的数学基础上。接下来我们利用下面的图帮助我们理解这两个不等式:

1240

其中,\(t\)是一个正数。蓝线(函数,输入小于\(t\)时,值是0,否则是\(t\))在绿线(恒等函数)之下,我们可以得出以下不等式:
\[0 + ... + 0 + t + t + ... \leq 0 + 1 + 2 + ...\]
设随机变量\(X\)取非负数,\(p(i)\)表示\(i\)出现的概率,对上面不等式对应第\(i\)项乘\(p(i)\)得到:
\[0(p(0) + ... + p(t-1)) + t(p(t) + p(t+1) + ...) \leq 0(p0) + 1p(1) + 2p(2) + ...\]
即得到Markov不等式:
\[tP[X \ge t] \leq E(X)\]

从上面的图也可以看出等号成立的条件,即对所有\(i \neq 0,n\)时,\(p(i) = 0\)。不等式可以推广到所有取非负数的随机变量。

Markov不等式:
\(X\)为非负随机变量,且假设\(E(X)\)存在,则对任意\(t>0\),有
\[P[X \ge t] \leq \frac{E(X)}{t}\]

此外,当 \(t = k\mu\)\(\mu = E(X)\)\(P(X>k\mu) \leq \frac{1}{k}\)

  • \(k>1\)时,表示随机变量的取值离期望不会太远(离期望较远的概率很小,小于\(\frac{1}{k}\))。\(P(X>2\mu)\leq 0.5\) ,\(P(X>3\mu)\leq 0.33\)
  • \(0 <k \leq 1\)时,\(1/k \geq 1\),上式总成立表示\(P(A) \leq 1\)

Morkov不等式的数学证明

对于1.1中的不等式关系进行证明如下:

\[\begin{eqnarray} E(X) = \int_{0}^{\infty} x f(x) dx &=& \int_{0}^{t} x f(x) dx + \int_{t}^{\infty} x f(x) dx \\ & \ge & \int_{t}^{\infty} x f(x) dx \\ & \ge & t\int_{t}^{\infty} f(x) dx \\ &=& t P(X > t) \end{eqnarray}\]

Chebyshev不等式

Chebyshev不等式:
\(\mu = E(X), \sigma^{2} = D(X)\),则:
\[P(|X - \mu| \geq t) \leq \frac{\sigma^2}{t^2} \qquad (1)\]
\(Z = \frac{X-\mu}{\sigma}\)
\[P(|Z| \ge k) \leq \frac{1}{k^2} \qquad (2)\]

对于\((1)\)式的证明,借助Morkov不等式如下:
\(P(|X-\mu| \ge t) = P((X-\mu)^2 \ge t^2) \leq \frac{E( X - \mu )^2}{t^2} = \frac{\sigma^2}{t^2}\)

对于\((2)\)式的证明:
$P(|Z| \ge k) = P(|\frac{X-\mu}{\sigma}| \ge k) = P(|X-\mu| \ge k\sigma) \le \frac{\sigma^2}{k^2\sigma^2} = \frac{1}{k^2} $
如$P(|Z| \ge 2) \leq 1/4 \(,\)P(|Z| \ge 3) \leq 1/9 $

\(X\)在其期望附近(\(t\)邻域)的概率与方差\(\sigma^2\)有关:

  • \(\sigma^2\)越大,随机变量离期望的概率越大(方差用于度量随机变量围绕均值的散布程度);
  • \(\sigma^2\)越大,随机变量在期望附近,远离期望的概率越小。

需要注意的是,Chebyshev不等式没有限定分布的形式,所以应用广泛,但这个界很松,对某些具体的分布来说,可以得到更紧致的界,如高斯分布 \(Z ~N(0,1)\)
\[\begin{eqnarray} P(Z \geq t) &=& \frac {1}{\sqrt{2\pi}} \int_{t}^{\infty} x e^{-x^2/2}dx \\ &\leq& \frac {1}{\sqrt{2\pi}} \int_{t}^{\infty} \frac{x}{t} e^{-x^2/2}dx \\ &=& \frac {1}{t \sqrt{2\pi} } \lbrack - e^{-x^2/2}\rbrack_{t}^{\infty} \\ &=& \frac {1}{\sqrt{2\pi} } \frac{ e^{-t^2/2} }{t}\\ \end{eqnarray}\]
得到米尔不等式(Mill's inequality):
\[P(|Z| \geq t) = 2P(Z \geq t) \leq \sqrt{ \frac {2}{\pi} } \frac{ e^{-t^2/2} }{t}\]
同样算$P(|Z| \geq 3) = 0.00295 $,比Chebyshev不等式算出来的\(1/9\)要小。

例题:假设我们在一个有\(n\)个测试样本的测试集上测试一个预测方法(以神经网络为例)。若预测错误则设置\(X_i = 1\),预测正确则设置\(X_i = 0\)。则\(\overline{X_n} = n^{-1}\sum_{i=1}^{n}X_i\)为观测到的错误率。每个\(X_i\)可视为有未知均值\(p\)的Bernoulli分布。我们想支持真正的错误率\(p\)。直观地,我们希望\(\overline{X_n}\)接近\(p\)。但\(\overline{X_n}\)有多大可能不在\(p\)\(\epsilon\)邻域内?
\(D(\overline{X}) = D(X_1)/n^2 = p(1-p)n\)
\(P(|\overline{X_n} - p| \geq \epsilon ) \leq \frac{D(\overline{X}) }{\epsilon^{2}} = \frac{p(1-p)}{n\epsilon^2} \leq \frac{1}{4n\epsilon^2}\)
由于对任意\(p\)\(p(1-p) \leq 1/4\),所以当\(\epsilon = 0.2\)\(n=100\) 时,边界为0.0625。

Reference

  1. 《All of Statistics: A Concise Course in Statistical Inference》by Wasserman, Larry
  2. [The Markov and Chebyshev Inequalities](

转载于:https://www.cnblogs.com/withwhom/p/11624267.html

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值