- 博客(88)
- 资源 (12)
- 收藏
- 关注
原创 SVM算法原理(3)
接着上一篇的内容,我们最终是定格在 在这个式子里我们需要找到让式子达到最大的值,我们现在就来探讨一下,是如何做到去最大值呢? 首先为了更好地衔接,回顾一下前面的知识,我们是如何走到这个式子的! 我们用了拉格朗对偶问题,把对min f(w)问题转化成 max w(a)的问题. 而式子中没有w是运用KKT条件中,对w求导等于0得到关于a的表达式,然后然代入原来的式子。之所以符合KKT条件,这个
2017-05-19 22:14:49 413
原创 SVM算法原理(2)
接着上面的博客,开始之前,我们需要有这样的预备知识。 拉格朗日对偶(Lagrange duality) 先来看看这样一个问题 这样一个在约束条件下求极限的问题,我们在高数上是学过的,但是高数里我们接触的比较多的是不带等号的,比如: 这种情况下怎么求大家都会,现在来研究下不带等号的情况下怎么求最大值,其实用大学的知识也可以做,但是肯定比较麻烦。而今天要解决的就是用比较简单的方法,我们伟
2017-05-15 00:06:15 451
原创 SVM算法原理(1)
这个是机器学习中接触支持来向量的时候,首先接触的是知识。 主要思想是,我们对于样本二分类,我们希望找到这样一个平面(超平面):样本的 geometric margin 最大的,其实就是在样本中离超平面的最近的点,然后使得这个最近的点的 geometric margin 最大。首先我们需要明白一些概念。function margin and geometric margin ,what is
2017-05-13 17:02:53 413
原创 朴素贝叶斯文本分类应用
在这里介绍两种分类应用。分别Multivariate Bernouli Even Model多元伯努利事件模型 和 Mutinomial Event Model多项式事件模型 由简单到复杂原则,先搞 多元伯努利!多元伯努利的思想是,按照训练数据,我们建立一个vocabulary,这个vocabulary 相当于一个向量,我们遍历一个邮件的文字的时候,出现的word,都会在相应的vocabulary
2017-05-07 17:48:48 1066
原创 高斯判别分析模型The Gaussian Discriminant Analysis model
高斯判别模型,内容其实非常简单 对于大多数模型,无非就是做这么几件事情 1.假设模型 2.设定参数,表示概率 3.用最大似然,通过样本算出参数 4.用得到的参数,再去测试数据里计算概率高斯模型判别是是这样,因为是判别吗,所以我们就把判别结果用0,1两种结果来表示,这样自然就想到要用伯努利。 高斯模型第二个假设是,我们认为对应两种判别结果分布于两种标准正态高斯模型。 举个例子: 比
2017-05-07 01:15:29 2857 1
原创 机器学习-广义线性模型GLM
广义线性模型的公式: 在学习广义线性模型的时候,会有这样的疑问,为什么我们要把逻辑回归,高斯分布模型都转化成广义线性模型,再来计算似然值呢? 我目前的理解是:不是说要转化成广义线性模型,而是他们是特殊的广义线性模型 比如,在逻辑回归中,我们对logistic function的定义,觉得莫名其妙,但是在广义线性模型中,我们能够看到如下 可以得出 以上是我们对广义模型的介绍。 在这
2017-05-03 01:24:28 1831
原创 机器学习-高斯模型
高斯模型的公式推导过程 通过学习线性模型之后,我们会有这样的疑问,如果现实中实例,他的分布不是线性模型的话怎么办?事实上,现实中很多实例他并不是服从线性关系。 比如智商分布图 对于这样的问题,很显然我们依然用线性模型的话是不合适的。 由此,我们引入高斯模型。高斯模型即是我们所熟悉的正太分布。在使用这一模型的前提条件是,我们假设 在不同的测试数据中,误差变量是 独立同分布的,我们通常情况下
2017-05-02 15:11:01 8964 1
原创 机器学习 逻辑回归
机器学习 逻辑回归 这里所写的是逻辑0,1分类的问题,即二分法。 与线性回归的 least square不同的是,逻辑回归对概率进行假设。 由于概率是在0,1之间 借助于公式 这个函数的名称为logistic function 因为这个函数的上限和下限就是在0,1之间,函数曲线如图 其实我们观察这个图的话,发现很像正太分布函数的F(x)函数图。 一个需要考虑的问题是:我们什么
2017-05-02 13:50:39 560 1
推荐系统实践
2017-06-24
斯坦福机器学习讲义
2017-04-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人