![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
吴恩达机器学习课程笔记
文章平均质量分 59
Christan_yu
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习week2
week2 多元线性回归 多元概念 输入的变量说明 多元变量的假设函数如下 如果用矩阵来表示,就是如下的结果(注意:此处默认x0这个变量是1,为了和假设函数的第一个参数对应,这样可以用两个n+1维的向量相乘) 多元变量的梯度下降方法 多元和一元的本质是一样的,我们只需要对每一个参数都进行求导迭代,最后达到收敛 如下两张图是一元和多元的区别(主要区别在于对每个参数进行求导之后乘对应的第i个变量xi即可) 梯度下降的实用方法1:特征缩放(Feature Scaling) 我们可以通过让我们的特征值都大原创 2021-01-26 18:20:10 · 160 阅读 · 0 评论 -
吴恩达机器学习课程笔记
机器学习week1 介绍 深度学习分为监督性学习和非监督性学习。监督性学习分为回归问题(给了一堆不同平米房子的房价,然后预测一个新房子的房价)和分类问题(给了一堆良性肿瘤和恶性肿瘤的信息,再给一个肿瘤的信息,判断恶性还是良性);非监督性学习基本是给了一堆数据然后实现一个聚类,实现一个分离。 线性回归模型 线性回归问题最好的cost function是平方差代价函数 使得平方差代价函数降到最小的算法是梯度下降算法。类似于站在山上,旋转360度,并问自己,想要下山,从哪个方向走呢?然后你按照自己的判断又迈出一原创 2021-01-26 18:21:59 · 167 阅读 · 0 评论