课程笔记
走过绿意
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习笔记【课时七】
课时7-1 过拟合问题具有高方差,泛化能力不好。过拟合的解决办法:课时7-2 代价函数如下图:为了避免过拟合,假如我们再代价函数后面加上两项,要想整体最小,则后两个参数值必须极小,这相当于抹去了这两个参数,假设仍是二次函数。所以我们可以通过在代价函数后面增加正则项避免过拟合:λ是惩罚项,是对不同特征的取舍假如我们给的惩罚项太大了会出现什么问题?会出现欠拟合:课时7-3 线性回归的正则化正则化在线性回归的推广:正规方程的正则项:课时7-4 Logistic回归的正则化原创 2020-12-11 15:21:10 · 124 阅读 · 0 评论 -
吴恩达机器学习笔记【课时六】
课时6-1 分类解决一些输出y时离散值的问题:比如输出0、1是否是垃圾邮件先讨论二分类问题:如果用线性回归的方式设置分类阈值为0.5:可以看出用线性回归解决分类问题并不合适。所以我们现在要介绍Logistic Regression,它的输出一直介于0和1之间。这是一种分类算法,不要因为名字疑惑。课时6-2 假设陈述Logistic Regression的假设函数:也就是将输出通过sigmoid函数映射到了0和1之间,然后还是通过数据集来拟合参数课时6-3 决策界限课时6-4 代价原创 2020-12-11 11:54:30 · 126 阅读 · 0 评论 -
吴恩达机器学习笔记【课时五】
因为吴老师用的是octave 但是我打算用python的numpy 这块就不学课程里的了原创 2020-12-07 11:20:47 · 84 阅读 · 0 评论 -
吴恩达机器学习笔记【课时四】
课时4-1 多功能现在增加一些特征,以下是一些描述符号:假设应该改成如下图所示,并且表示可以表示成矩阵相乘的形式:(下图的x为一个样本)课时4-2 多元梯度下降法如何给多元回归的梯度下降法设置参数?如此求导课时4-3 多元梯度下降法演练——特征放缩关于特征的取值范围:椭圆形等高线的代价函数收敛时间长,需要把参数都在同一个范围内:所以需要对特征的值进行均值归一化处理:课时4-4 多元梯度下降法——学习率课时4-5 特征和多项式回归课时4-6 正规方程(区别于迭代法的直接解法)原创 2020-12-06 17:58:34 · 101 阅读 · 0 评论 -
吴恩达机器学习笔记【课时三】
课时3-1 矩阵和向量课时3-2 加法和标量乘法课时3-3 矩阵向量乘法课时3-4 矩阵乘法维度匹配:左边矩阵每一行时一个样本数据,右边矩阵每一列是一种假设的参数课时3-5 矩阵乘法特征矩阵乘法不满足交换律,满足结合律,定义单位矩阵课时3-6 逆和转置定义逆矩阵和转置(都是很基础的知识...原创 2020-12-06 17:39:30 · 94 阅读 · 0 评论 -
吴恩达机器学习笔记【课时二】
课时2-1 模型描述训练样本标记含义:训练集通过学习算法输出假设函数,假设函数能够对于输入的x输出相应的y课时2-2 代价函数如何选择假设函数的参数呢?通过最小化代价函数:课时2-3 代价函数(一)简化了一下:假设函数和代价函数的关系图示:课时2-4 代价函数(二)上一节只有一个参数,所以假设函数和代价函数的图示简单,比如下图:如果是两个参数,则代价函数的图为下图所示:可以用二维等高线来表示上图:对于难以可视化的图可用软件求得极值课时2-5 梯度下降梯度下降过程原创 2020-12-05 21:44:34 · 182 阅读 · 0 评论 -
吴恩达机器学习笔记【课时一】
课时1-2 什么是机器学习?原创 2020-12-04 19:14:30 · 78 阅读 · 0 评论