归纳偏置/归纳偏差/inductive bias

归纳偏置/归纳偏差/inductive bias

“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。

更合适的翻译应该是“归纳偏置”:归纳是自然科学中常用的两大方法(归纳与演绎,induction and deduction)之一,指的是从一些例子中寻找共性、泛化,形成一个比较通用的规则的过程;而“bias”“偏置”是指我们对模型的偏好。因此归纳偏置可以理解为,从现实生活中观察到的现象中归纳出一定的规则,然后对模型做一定的约束,从而可以起到“模型选择”的作用,即从假设空间中选择出更符合现实规则的模型。类似贝叶斯学习中的“先验,prior”,但与“先验”不同的是,“先验”一般是确定性的已知、知识,而“偏置”更倾向于是一种经验性的假设。

归纳偏置在机器学习中几乎无处不在。具体的例子可以参考文末资料,笔者说一下自己想到的一个简单例子。

比如,我们考虑一组(0,0)(1,1)...(i,i)...(n,n)的点,当我们要学习一个模型来模拟x到y的映射时,我们最希望的是模型学习到y=x这个线性映射,可实际上符合这些样本点的映射有无穷多种,如果我们在非线性映射空间进行学习的话,学习过程就会十分复杂,因此我们在某些情况下就会做出“我们假定这是一个线性映射”这样的假设,之后在此假设的基础上对模型进行学习,这里的“我们假定这是一个线性映射”就是基于先验知识等所作出的归纳偏置;而当我们在线性映射空间进行学习时,也有可能得到无限种映射,此时我们会根据奥卡姆剃刀原则选择“尽可能简单的模型”。奥卡姆剃刀是机器学习中最典型的一种归纳偏置。

 

作用:

机器学习中的归纳偏置可以提高模型的泛化性。例如在上文的例子中,如果我们在采样中遇到了噪音(0,10),(7,-20)...,等就很可能会使得对泛化性更强的映射y=x学习的失败,从而学习到一个“过拟合”的模型,而在我们加入“线性映射”、“奥卡姆剃刀”等归纳偏置后,就会更容易学习到在目标域更具有泛化性、通用性的映射y=x(模型)

 

总结:

inductive bias更合适的翻译是归纳偏置而非归纳偏差,它是一种在模型的无限解空间中所引入的合理假设与约束,这类假设、约束能够缩小求解空间并提高所得模型在目标域的泛化性。

  • 14
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值