- 博客(4)
- 资源 (5)
- 收藏
- 关注
原创 机器学习(7)——支持向量机(三):线性支持向量机和软间隔最大化
前两章讨论支持向量机时,假设了数据最终是能完全被分开,即数据在原始特征空间或映射到高维特征空间之后能够完全正确分类。但是,这样绝对的分类存在一个明显的问题,如果模型中存在异常点,即使高维映射之后,能够完全正确分类,也可能导致模型复杂度过高,模型过拟合。虽然训练出来的模型能够在训练集上表现很好,但其泛化能力会很差。 如下图所示,明显蓝色框标记的两个白色点和两个红色点都是异常点,如果通过硬间隔SVM我
2015-12-29 22:47:45 5451
转载 成为深度学习专家的七个步骤
PS:早上看到的一篇不错的原文,因为自己也正在进行这些学习研究,一路走来,觉得总结不错。本想要翻译出来的,发现有人这么做了,就直接转过来,一方面是给自己更多资源,另一方面是希望分享给更多的人。原文作者:Ankit Agarwal译者:Angulia Chao原文链接:https://www.linkedin.com/pulse/7-steps-bec
2015-12-15 20:40:00 2946
原创 机器学习(7)——支持向量机(二):线性可分支持向量机到非线性支持向量机
线性可分支持向量机回顾前面总结了线性可分支持向量机,知道了支持向量机的最终目的就是通过“间隔最大化” 得到最优分类器,能够使最难区分的样本点得到最大的分类确信度,而这些难区分的样本就是支持向量。 还是如下图所示,超平面H1H_1 和 H2H_2 支撑着中间的决策边界,且到达决策边界的距离相等,都是最大几何间隔。而这两个超平面H1H_1 和 H2H_2 必定会有一些样本点,不然中间的间隔还可以继续扩
2015-12-08 23:04:33 5919
原创 机器学习(7)——支持向量机(一):从感知机到线性可分支持向量机
前言支持向量机(support vector machine)本来是最早接触的机器学习算法,最初自己写的的机器视觉论文也用到了SVM,但和神经网络一样,一直觉得它是比较复杂的机器学习方法,需要深入的学习和研究。因此先是系统推导了李航的《机器学习》,之后学习Andrew Ng的机器学习课程,并看了july、pluskid等人的技术博客。也不能说自己精通了,只能算是学习笔记,总结一些自己能掌握的东西。
2015-12-06 00:26:09 3923
结合OpenCV库和位图处理的MFC框架
2014-12-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人