- 博客(2)
- 问答 (1)
- 收藏
- 关注
原创 朴素贝叶斯法
朴素贝叶斯法基于贝叶斯定理与特征条件独立假设的分类方法。朴素贝叶斯法对条件概率分布做了条件独立的假设。由于这是一个较强的假设,由此获得朴素贝叶斯的名字(对于多重线性相关的特征,朴素贝叶斯法效果会很差)。朴素贝叶斯实际上学习到生成数据的机制,所以属于生成模型。期望风险最小化准则就能得到后验概率最大化准则: f(x)=argmax P(y=k|X=x); 这就是贝叶斯法有效的原理。
2017-03-25 12:26:42 298
原创 关于k-NN算法的总结及个人理解
k-NN算法的三要素:k值的选择,距离度量,分类决策规则。k值的选择: k值选的过小,训练误差会很小,但测试误差会对应增加,这是明显的过拟合现象。k值选的过大,训练误差过大,测试误差也会很大,明显的欠拟合现象。 K近邻法不具有显示的学习过程,也就是没有显示的训练过程,怎么会有训练误差呢?其实从原理上还是挺容易理解的,K近邻法确定后k值大小,距离度量和分类决策之后,
2017-03-23 11:41:24 3774
空空如也
Mnist数据集中通过灰度归一化处理反锯齿问题
2016-12-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人