机器学习
00111001
这个作者很懒,什么都没留下…
展开
-
【吴恩达机器学习】学习笔记 (逻辑回归 logistic regression)
Logistic Regression前面我们讨论的都是supervised learning中的regression问题,而还有另一类问题叫做classification,这类问题的输出只有0或1,显然就需要用其他方法来解决这类问题。模型在线性回归中,我们用h(x)来代表我们的假设函数,这里输出就是我们想要的结果,在逻辑回归里,因为输出项只有0或者1,所以我们需要对这个函数做一下修改,使它...原创 2019-01-17 10:50:05 · 228 阅读 · 0 评论 -
【吴恩达机器学习】学习笔记(过拟合&正则化)
过拟合问题(1)underfitting(欠拟合)如果我们的假设函数是一个一次函数,我们可能最后得到的是这样的一条直线,很容易看出它的拟合效果不是很好,这种情况我们称之为欠拟合。(2)just right(拟合的很好)(3)overfittiing(过拟合)如果我们给假设函数加入很多的高阶项,最后得到的曲线会想尽一切办法,把所有的数据点都拟合进去,这样的情况称过拟合这种情况下,看...原创 2019-01-17 14:37:05 · 302 阅读 · 0 评论 -
【吴恩达机器学习】学习笔记1.1
Definition of ML 机器学习定义定义1the field of study that gives computers the ability to learn without being explicitly programmed." This is an older, informal definition.(Arthur Samuel)定义2A computer pro...原创 2019-01-13 20:24:57 · 218 阅读 · 0 评论 -
【吴恩达机器学习】学习笔记1.2(梯度下降)
Cost Function(代价函数)在线性回归(Linear Regression)中,我们会得到一个h(x)来代表我们的线性回归函数,那么怎么来得知这个函数的好坏,是否能很好的拟合我们的数据,我们就用到代价函数这个概念根据代价函数的公式,这个里面(xi,yi)为我们原来数据集的点,通过计算原本实际输出和我们h函数输出的差值来判断我们这个函数拟合的效果。采用方差再取1/2来尽可能减小一些...原创 2019-01-15 15:55:59 · 296 阅读 · 0 评论 -
【吴恩达机器学习】学习笔记1.3(Normal Equation& 与梯度下降比较)
Normal Equation(标准方程)通过前面的学习,我们知道了能够通过梯度下降的方法求得我们的最优解,那还有没有其他方法呢?回想我们原来的学习过程,如果我们已知一个二次函数,想求它的最小值,我们采用的方法就是对二次函数求导,找到导数为0的那个点,这就是Normal Equation的方法如上图所示,我们得到一个关于变量的矩阵X,和一个输出的矩阵Y,利用来求的我们的θ向量,关于这个...原创 2019-01-15 21:35:03 · 2873 阅读 · 0 评论