一致性学习的简单理解

learning consistency
机器学习的一致性到底是什么
谷歌搜索 Learn consistency 后
经典奥卡姆剃刀:‘’解释的时候简单就是有效”的原则

定义

如何判断一个算法是否为一致性学习器
在这里插入图片描述
一致的学习算法只需要输出一个与提供给它的所有训练数据一致的假设。
这种一致性的概念与机器学习文献中的经验风险最小化原则密切相关,风险是指 0-1 损失
0-1损失是指预测值和目标值不相等为1, 否则为0。
一致性是学习算法的首要要求之一,也是最低要求之一。
一致性是学习算法的一个渐近特性,它基本上保证了当给定更多的训练数据时,算法返回更好的模型。

分类

分为强一致性,弱一致性和通用一致性。
在这里插入图片描述

当训练样本D的大小是N,如果返回模型的风险在概率上收敛到贝叶斯风险,则相对于样本 (X,Y) 的分布是一致性的。
当N趋近于无穷大,收敛趋近于1,则可以称该算法是强一致性
一方面,一致性意味着当训练样本的大小 N 增加时,绘制训练样本的概率使得返回模型的风险接近可实现的最佳风险 R* 趋于 1。另一方面,强一致性意味着当训练样本的大小增加时,对于该大小的所有可能的训练样本(一组零度量的训练样本除外),返回模型的风险趋向于最佳。

上面定义的算法的一致性(弱或强)仅适用于 (X,Y) 的特定分布,因此只适用于特定问题。但是由于机器学习的核心假设之一是我们没有这种分布的先验知识,因此算法的一致性对于为特定任务选择算法没有太大帮助。在这样一个不可知的假设下,我们需要的是根据算法在大量可能的分布集上是否一致来表征算法。
如果学习算法对于 (X,Y) 的任何分布(强)一致,则称该算法是普遍(强)一致的

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值