一个简单的关于条件概率和推理的讨论
在当前各类学习任务中,我们总认为数据量越多,便可以使得学习结果越准确。因此很多工作中在解决模型的泛化能力不足时,第一条思路总是去扩展训练集,然而事实上这个假设未必属实。
以两个事件为例,A和B,那么我们可以将一个机器学习分类任务如下:我们已知事件B,并计划通过在B事件上学习知识,从而去推测A的类别,本质上便是讨论条件概率
P(A∣B),
P(A|B),
P(A∣B),
的取值,而当我们发现通过B去估算A的准确性不甚理想时,我们考虑的是A的特征可能完全从B的学习中获取到,因此,理所应当的,有两类途径,更改模型
原创
2021-07-07 09:22:20 ·
132 阅读 ·
0 评论