Task01 吃瓜—绪论

Task01 吃瓜—绪论

一、没有免费的午餐(No Free Lunch Theorem)

所有学习算法的期望性能相同(只是处理不同的问题时,学习算法A优于学习算法B)

二、过拟合(overfitting)与欠拟合(underfitting)

过拟合:学习样本集非一般特征,泛化性能下降

解决方法:

  • 选择泛化误差最小的模型

  • 增加噪声,数据增强(旋转,裁剪,光照,翻转)

  • 减小网络规模(不常用)

  • 正则化

欠拟合:没有学到样本集一般特征

解决方法:

  • 在决策树中增加分支
  • 神经网络学习中多训练几轮
三、几种模型验证方法

留出法 (hold-out)

将数据集分为互斥的两个集合,作为训练集和验证集,比例一般在0.66-0.8左右

交叉验证法(cross validation)

将数据集分为k个大小相似的互斥子集,每次保留一个集合作为验证集,其余集合作为训练集,进行k次训练和测试,返回测试结果的均值,也称k折交叉验证

自助法(bootstrapping)

可放回抽样,对包含m个样本的数据集D,每次抽取一个,拷贝入D’,重复执行m次。某些数据可能被抽取多次,某些一次都没有抽到。某一样本始终不被抽到的概率约等于0.368,把这个部分抽出来作为验证集

适用范围:数据集较小,难于有效划分训练\验证集时使用

四、模型评估的常见参数

错误率(error rate):分类错误率为分类错误的数占样本总数的比例

精度(accuracy):精度 = 1 - 错误率

查准率(precision):真阳性/(真阳性+假阳性)所有预测正例中的真实正例

查全率(recall):真阳性/(真阳性+假阴性)所有真实正例中判断正确的例

P-R曲线和平衡点(Break Even Point)

  • P-R曲线即横轴是查全率,纵轴是查准率的曲线,平衡点是对称轴y=x与曲线的交点

  • 如果A曲线能完全包住C曲线,则可以认为A曲线性能优于C曲线

  • 对于两个有交叉的曲线,平衡点更高的那个性能更好(还是要看具体问题)

F1

  • 帮助(并不是查准率和查全率的调和平均数调和平均数比起算术平均和几何平均更偏重较小值)

ROC曲线(Receiver Operating Characteristic)

  • 横轴为假正例率(FNR)(所有真正假例中的错误识别的正例)FP/(TN+FP)

  • 纵轴为真正例率(FPR)(所有真正例中的正确识别的正例,即recall)TP/(TP+FN)

AUC(Area Under ROC Curve):

  • 顾名思义,ROC曲线下的面积,面积越大模型性能越好

代价矩阵:当FN,FP的结果重要性不一样时,可以设定代价矩阵对其加权,比如二分代价矩阵可以为[[0,1],[5,0]]

代价曲线:取(0,FPR),(1,FNR)两点连线,将ROC上每个点转换成代价平面的一条线,所有线取下界得到期望总体代价

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值