模型的评估和选择

模型的评估和选择

最近补了西瓜书的第1,2章。这样西瓜书只差8集成学习,9聚类,10降维与度量学习,11特征选择与稀疏学习,13半监督学习,16强化学习就算粗读一遍了。一些比较重要的算法在下学期的课中应该会再学习一遍。


没有免费午餐(NFL)定理

首先是没有免费午餐定理(NFL定理),这个定理推导比较简单,看懂假设就好了。
  定理结果说的是,在测试集等可能分布的情况下,训练集训练出来的任何算法,在测试集上的期望表现相等。
  
   但是大部分情况下,测试集与训练集有相似的分布,不满足测试集等可能分布,所以大部分情况下好的算法还是可以获得好的表现的。


评估方法

  1. 留出法(leave one out):交叉验证的特例
  2. 交叉验证法(cross validation)
  3. 自助法(bootstrapping):自助法不减少训练集规模,所以在数据集较小,难以有效划分时很有用。自助法产生的数据集改变了初始数据集的分布,会引入偏差。因此,在初始数据集足够时,留出法和交叉验证法更常用一些。

性能度量

  1. 错误率(1-acc)
  2. 精度(acc)
  3. 查准率(准确率P)
  4. 查全率(召回率R)
  5. F 1 F_1 F1-score, F β F_\beta Fβ-score
  6. P-R曲线,以及平衡点的得分BEP值。
  7. ROC和AUC、ROC曲线以及围的面积AUC

偏差与方差

参数估计的泛化误差由方差和偏倚组成。
  
   E ( d − θ ) 2 = E ( ( d − E d ) + ( E d − θ ) ) 2 = V a r ( d ) + ( E d − θ ) 2 E(d−θ)^2=E((d−Ed)+(Ed−θ))^2=Var(d)+(Ed−θ)^2 E(dθ)2=E((dEd)+(Edθ))2=Var(d)+(Edθ)2
  欠训练时,方差小,偏倚大,欠拟合。
  过训练时,方差大,偏倚小,过拟合。

如果考虑含噪声 ϵ {\epsilon} ϵ的标记的泛化误差,那么泛化误差还包括噪声。   
   E ( f − y + ϵ ) 2 = E ( ( f − f ˉ ) + ( f ˉ − y ) − ϵ ) ) 2 = V a r ( f ) + ( f ˉ − y ) 2 + ϵ 2 E(f−{y+\epsilon})^2=E((f−\bar f)+(\bar f−y)-\epsilon))^2=Var(f)+(\bar f−y)^2+\epsilon^2 E(fy+ϵ)2=E((ffˉ)+(fˉy)ϵ))2=Var(f)+(fˉy)2+ϵ2

最后三项一次是方差,偏倚,噪声。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值