噪音与误差

误差测量

描述

machine learning model

误差测量是描述一个假设式和目标函数的接近程度,以此为标准从假设集中挑选出最为接近的一个假设式h,即g作为最终假设式.

误差越小越接近目标函数

  • 作用于一个样本点上的误差测量: e(h(x),f(x))
    • 平方误差: e(h(x),f(x))=(h(x)-f(x))\(^2\)
    • 二进制误差: e(h(x),f(x))=[[h(x)\(\neq\)f(x))]]
      • 即假设式和目标函数产生结果不同的样本点数量
  • 整体误差测量: E(h,f)
    • 逐点误差的平均值即为整体误差

样本内外误差

  • 样本内误差(作用在样本空间内)
    • E\(_{in}\)(h)=\(\frac{1}{N}\sum_1^Ne(h(x_n),f(x_n))\)
  • 样本外误差(所有样本点的误差的期望)
    • E\(_{out}\)(h)=\(E_x[e(h(x_n),f(x_n))]\)

误差分类

批注 2019-08-21 215251

  1. 正确肯定 (True Positive,TP)
  2. 正确否定(True Nagtive,TN)
  3. 错误肯定(False Positive,FP)
  4. 错误否定(False Nagtive,FN)

正确肯定和正确否定都是没有误差的,错误肯定和错误否定是误差所在

不同情形下两种误差的付出的代价不同,

假如是安全局的指纹门,错误肯定(外人也可以进入,安全隐患)就会付出很大代价,而错误否定就没有很多事

假如是超市的vip卡,错误否定(是vip却识别为不是)就会让消费者很尴尬,代价较大,错误肯定就只是付出一点优惠而已

  • 查准率(Precision)=TP/(TP+FP)
    • 描述了假设式的准确度(目标函数评定为+1的样本中假设式评定为+1的比率)
  • 查全率(Recall)=TP/(TP+FN)
    • 描述了假设式的全面性(假设式评定为+1的样本中目标函数评定为+1的比率)
  • 在权衡两者时可以使用F1值
    • F\(_1\) Score=2\(\frac{PR}{P+R}\)

噪音

描述

machine learning model

即使相同的输入也有可能得到不同的输出(条件相同的两个人申请贷款很有可能得到不同的贷款额度),现实生活中目标函数往往是存在噪音的,并不是一成不变的

噪音分类

  • 确定噪音(Deterministic noise)
    • 目标函数复杂度相较于假设式较高
    • 假设式不具有完全学习比自己复杂的目标函数的能力
  • 随机噪音(Stochastic noise)
    • 样本中的坏点(即不正确的样本)
    • 坏点引导学习算法学习错误的信息

转载于:https://www.cnblogs.com/redo19990701/p/11391708.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值