m
爱哭的男子汉
这个作者很懒,什么都没留下…
展开
-
吴大佬的网课单变量线性回归1.0
一.基础模型 说明一下:首先我们有一个数据集即Training-Set,通过一定的算法(learningAlgorithm),我们得到了恰当的函数(假设,h),然后再输入我们需要预测的数据,函数(h)就能给出预测的结果了。 二.假设函数和代价函数 在机器学习中,我们的目的是为了找出与数据集拟合最好的函数曲线(h),我们开始会通过观察,假设出一个假设函数,然后再通过对应的代价函数找到真正的...翻译 2018-09-11 17:15:28 · 193 阅读 · 0 评论 -
吴大佬的网课——初识机器学习梯度下降法
之前讨论到机器学习训练其实就是找让代价函数最下的参数,但是总不能让我们人为一个个输入参数尝试吧,我们需要能自动找到对应参数的算法。吴大佬讲的第一个算法就是——梯度下降法 梯度下降法的具体步骤呢,其实和高数相关,高数有梯度这个概率,梯度方向是改变函数值最大的方向,所以梯度下降法的基本操作就是让对应维度的值减去一个梯度乘乘一个学习率(数字),这样就让代价函数下降了。 需要注意的是我们我们要同时...翻译 2018-09-11 17:59:31 · 308 阅读 · 0 评论 -
吴大佬的网课——初始机器学习:监督学习和无监督学习
在学习机械学习的开始,决定写博客,记录下自己的成长(滑稽) 一.监督学习:输入一堆数据(带有结果),让计算机预测未输入数据的结果。 1.回归问题:预测连续的数值输出。 2.分类问题:预测离散的数值输出。 二.无监督学习:输入一堆数据(不带结果),让计算机寻找其中的特殊结构。 1.聚类问题:将数据集自动分成不同的簇。 2.鸡尾酒算法:优化音频。...原创 2018-09-10 22:05:02 · 374 阅读 · 0 评论 -
吴大佬的网课——多变量线性回归1.0
之前一直是在讨论数据集一个变量或者两个变量下的情况,终于来到了多个变量的情况了,看到矩阵和向量就有些害怕呢。不过它的基本原理肯定还是没有变的,还是有一个假设函数,然后有对应的代价函数,我们的目标还是最小化花费函数,如下图 那运用梯度下降法时,有什么变化呢? 除了要改变的参数增多外,一点变化都没有,还是让参数在梯度的对应维度下降一定距离 接下来又讲了点梯度下降法的一点小技巧啦,比如对学习率...转载 2018-09-13 11:49:42 · 213 阅读 · 0 评论