在机器学习中,
很多学习算法经常会对学习的问题做一些假设
,
这些假设就称为
归纳偏置
(
Inductive Bias
)[
Mitchell
,
1997
]
.
比如在最近邻分类器中
,
我们会假设在特征空间中,
一个小的局部区域中的大部分样本同属一类
.
在朴素贝叶斯分类器中,
我们会假设每个特征的条件概率是互相独立的
.
归纳偏置在贝叶斯学习中也经常称为
先验
(
Prior
).