自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 问答 (1)
  • 收藏
  • 关注

原创 朴素贝叶斯法

朴素贝叶斯法基于贝叶斯定理与特征条件独立假设的分类方法。朴素贝叶斯法对条件概率分布做了条件独立的假设。由于这是一个较强的假设,由此获得朴素贝叶斯的名字(对于多重线性相关的特征,朴素贝叶斯法效果会很差)。朴素贝叶斯实际上学习到生成数据的机制,所以属于生成模型。期望风险最小化准则就能得到后验概率最大化准则: f(x)=argmax P(y=k|X=x); 这就是贝叶斯法有效的原理。

2017-03-25 12:26:42 298

原创 关于k-NN算法的总结及个人理解

k-NN算法的三要素:k值的选择,距离度量,分类决策规则。k值的选择: k值选的过小,训练误差会很小,但测试误差会对应增加,这是明显的过拟合现象。k值选的过大,训练误差过大,测试误差也会很大,明显的欠拟合现象。 K近邻法不具有显示的学习过程,也就是没有显示的训练过程,怎么会有训练误差呢?其实从原理上还是挺容易理解的,K近邻法确定后k值大小,距离度量和分类决策之后,

2017-03-23 11:41:24 3774

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除