机器学习
文章平均质量分 77
包子稀饭
这个作者很懒,什么都没留下…
展开
-
机器学习推导合集01-霍夫丁不等式的推导 Hoeffding Inequality
1.0 引言笔者第一次接触霍夫丁不等式(Hoeffding Inequality)是在林轩田先生的机器学习基石课程(还是在b站上看的hh)上。可以说,当时没有系统学过概率论与数理统计(probability and statistics)的我,对于不等式的推导是感到相当头疼。后来,我本科课程优化与机器学习课程引用了伦斯勒理工学院(RPI)的slide。乍看之下,发现竟与林轩田先生的课十分相似。后...翻译 2018-11-20 20:26:37 · 929 阅读 · 0 评论 -
PLA算法是否会终止
满足这个问题的条件是现有的数据是否线性可分,该课程并未证明这个条件,而是直接证明:存在完美的Wf,则数据线性可分。wt:现态特征向量。wf:最终学习好的特征向量。上图证明Wf与Wt之间是否接近,即将两个向量做了内积,则内积的值越大,表明两个向量越接近或者向量的长度越长,下面要说明向量的长度问题,证明PLA算法收敛利用PLA的“有错才更新”的性质,在犯错误的情况下,通过以上推导,最终得到...转载 2018-11-17 23:14:59 · 339 阅读 · 0 评论 -
机器学习算法分类---监督式、无监督、半监督、强化学习
机器学习算法分为四类:1、监督式学习(Supervised learning)监督式学习是拥有一个输入变量(自变量)和一个输出变量(因变量),使用某种算法去学习从输入到输出之间的映射函数。目标是得到足够好的近似映射函数,当输入新的变量时可以以此预测输出变量。因为算法从数据集学习的过程可以被看作一名教师在监督学习,所以称为监督式学习。监督式学习可以进一步分为分类(输出类别标签)和回归(输出连续值...转载 2018-11-17 23:39:35 · 2365 阅读 · 0 评论