![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
吴恩达
土豆土豆谢
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习课程笔记6
吴恩达机器学习课程笔记6 神经网络: 代价函数: 前向传播: 反向传播原创 2021-03-29 17:00:10 · 72 阅读 · 0 评论 -
吴恩达机器学习课程笔记5——过拟合和正则化
过拟合问题 过度拟合:就是我们拟合一个高阶多项式,这个假设函数几乎可以拟合所有的数据,但是这个假设函数太过庞大,数量太大导致我们没有足够的数据去约束它。 这幅图是以线性回归为例子,第一张图是欠拟合(高偏差),可以看出来它没有很好的拟合数据。第二张图拟合效果刚刚好。第三张图,就是过度拟合(高方差)。 这幅图是以逻辑回归为例子,同样是欠拟合、恰好拟合、和过度拟合。 那么怎样解决过度拟合的问题呢?主要有两类方法: 第一类:减少我们选取变量的数量。 第二类:正则化。就是保留所有的特征变量,但是减少它们的量级或者参数原创 2021-01-25 19:08:02 · 129 阅读 · 0 评论 -
吴恩达机器学习课程笔记4
逻辑回归 逻辑回归是在输出值y为离散值0或者1的一种分类算法。逻辑回归的特点就是算法的输出或者预测值一直介于0和1之间。 h(x)代表在输入x的时候输出y=1的概率。 决策界限 决策界限是我们在训练集中运用代价函数得到一组拟合参数,将这组拟合参数代入h(x)中,得到的一个决策界限,这个界限就可以把输入进行分类。 代价函数 刚刚我们讲到我们需要用代价函数来得到拟合参数,那我们怎样用代价函数得到拟合参数呢? 我们先类比线性回归的代价函数写出逻辑回归的代价函数。 因为我们知道如果代价函数不是凸函数的话,选用梯原创 2021-01-24 19:46:46 · 99 阅读 · 0 评论 -
吴恩达机器学习课程笔记3
矩阵相关知识 prediction=DataMatrix✖parameters(预测值=数据✖参数),如图所示。 多元梯度下降法 前面我们介绍的梯度下降法只涉及了一个自变量,但在现实生活中的问题中可能会出现多个变量。例如房子的大小,房间的数目,楼层的高低和房子的新旧都会对房价有一定的影响。 这种情况下我们对应的假设函数、代价函数和梯度下降都应该相应的变化。 在多元梯度下降法中有两个常用的小技巧,一个是特征缩放,一个是对于学习率阿尔法a的选取。 特征缩放适用于我们有多个变量但是不同变量的范围不同,甚至是相差原创 2021-01-20 16:24:47 · 96 阅读 · 0 评论 -
吴恩达机器学习课程笔记1
什么是机器学习? A computer program is said to learn from experience E with respect to some task T and some performance on T, as measured by P improves with experience E. 简单来说就是用经验E提高一些任务T的性能P 举个例子就是:大佬和自己的程序下了几万次跳棋训练自己的程序,那么大佬和程序下这几万次跳棋就是经验E,下跳棋就是任务T,那程序和新手玩棋时赢的概原创 2021-01-10 09:17:56 · 170 阅读 · 0 评论