python 方差_使用python+sklearn实现收缩协方差估算:LodoitWolf、OAS和最大似然性

本文介绍了在Python中使用sklearn库进行协方差估计,特别是收缩协方差估计,如Lodoit-Wolf和OAS方法。讨论了正则化参数的选择,通过交叉验证和似然性来确定最优参数。同时,提到了Chen等人对Ledoit-Wolf方法的改进,适合小样本高斯分布数据。加入作者的学习社群,深入学习机器学习算法。
摘要由CSDN通过智能技术生成

使用协方差估计时,通常的方法是使用最大似然估计器,例如sklearn.covariance.EmpiricalCovariance,它是无偏的,即当给定许多观测值时,它会收敛到真实(总体)协方差,但是对它进行正则化以减少其方差也是有益的,反过来则会带来一些偏差。本示例说明了在Shrunk Covariance估计器中使用简单正则化的效果,特别地,它着重于如何设置正则化的量,即如何选择偏差方差折衷。

这里我们比较的三种方法:
  • 根据潜在收缩参数网格,通过交叉验证three folds likelihood来设置参数。
  • Ledoit和Wolf提出的一个近似公式(close formula),用于计算渐近最优正则化参数(最小化MSE准则),从而得出sklearn.covariance.LedoitWolf协方差估计。
  • Chen等人提出了Ledoit-Wolf收缩率的改进方法`sklearn.covariance.OAS`。在数据呈高斯分布的假设下,它的收敛性明显更好,特别是对于小样本来说。
为了量化估计误差,我们针对收缩参数的不同值绘制了未出现过数据的似然性(likelihood)。我们还通过交叉验证或使用LedoitWolf和OAS估计来显示选择。 示例可得,最大似然估计是没有收缩的,因此性能很差。Ledoit-Wolf估计的性能非常好,因为它接近于最优值,并且计算成本不高,而OAS估计值离最优值有点远。有趣的是,这两种方法都优于计算成本要高得多的交叉验证。 <
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值