Book note
FrostMonarch
这个作者很懒,什么都没留下…
展开
-
图解机器学习笔记(一)
这本书从译者的序可以看出,我们看的时候不应该过于专注于模型的推到,我们要做到的是掌握算法的特点和使用方法。因为本人专注于的是工程项目,而不是开发所谓的新算法,所以这本书拿来就用的特点很适合我。以下记录一些看到的基本概念。泛化:指的是解决新问题的能力有监督学习:(1)是带有外界反馈的学习(2)是有自己的目的,希望通过已有的数据,对没有学习过的问题做出解答。无监督学习:(1)不带有外界反馈的学习,自己...原创 2018-03-24 16:29:34 · 221 阅读 · 0 评论 -
图解机器学习笔记(二)
叫做生成概率,预测的模式识别叫做生成的分类。叫做后验概率,预测的模式识别叫做识别的分类。 x叫做模式,y叫做类别。这幅图是解释以下公式: 等式左边那个叫做y翰特,当取得最大值时对应的输入参数值。上面这幅图介绍了两个概率的关系,至于为什么可以这样呢,就不解释了。 下面讨论近似模型的概念,也就是类似于前面博客所说的回归,我们有什么方法表达这个近似模型呢?需要学习的又是模型里面的哪个参数呢?(...原创 2018-03-25 11:56:58 · 164 阅读 · 0 评论 -
图解机器学习笔记(四)
接下来,我会讲一下,如何防止过拟合。所谓的过拟合即是由于设计的模型过于复杂,如下图:最终我们的目的是做一个带约束的最小二乘法,如下图:为此,我们有如下约束和方法:求出如下:另外我们有带约束的最小二乘法方法,满足如下约束。即有如下表达式。lambda大于0,可以自己设定。要得到这个表达式,必须用拉格朗日对偶问题解出来。或者我们用另一个表达形式写出来解法:最后,还可以用奇异值分解的方法来表达这个the...原创 2018-04-04 10:11:49 · 207 阅读 · 0 评论 -
图解机器学习笔记(三)
今天,我会介绍新看到的一个非线性模型,层级模型。与前面的线性模型相比,这里的基函数多了一个学习参数beta 。以Phi使用高斯函数为例,前面的介绍的话,高斯函数的均值使用的是样本值,而且标准差也是一个固定数,这里均值和标准差都成为了学习参数。归纳:通过最小二乘法后(其实有留意我另外写的博客文章 Andrew Note的话,知道这个是square error cost function),我对机器学...原创 2018-03-27 15:13:03 · 191 阅读 · 0 评论 -
《图解机器学习》所设计到的一些数学知识
因为本人刚考完研,自认数学基础还是有一点的,所以本片归纳不会涉及所有这本书需要用到的数学知识。矩阵的值域空间 。设A是m*n矩阵,Ax = b ,其中x为n*1向量。所有的b构成了A的值域空间。表示D维向量空间。奇异值分解的概念。同时记住左奇异向量和右奇异向量的标注。...原创 2018-03-27 15:38:29 · 256 阅读 · 0 评论