![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
paddlepaddle学习笔记
文章平均质量分 66
YvesAgh
这个作者很懒,什么都没留下…
展开
-
paddlepaddle学习笔记之随机梯度下降法
paddlepaddle学习笔记之随机梯度下降法 本文基于ai-studio使用nmumpy构建神经网络模型项目 接上文-paddlepaddle学习笔记之梯度下降法 随机梯度下降法 每次从总的数据集中随机抽取出小部分数据来代表整体,基于这部分数据计算梯度和损失来更新参数,这种方法被称作随机梯度下降法(Stochastic Gradient Descent,SGD) 与梯度下降法的区别 每次抽取数据时将数据集打乱。 每次只从总的数据集中抽取小部分数据。 特点 对于训练速度来说,随机梯度下降法由于原创 2021-03-16 22:33:13 · 214 阅读 · 1 评论 -
paddlepaddle学习笔记之梯度下降法
paddlepaddle学习笔记之梯度下降法 本文基于ai-studio使用nmumpy构建神经网络模型项目 引入 波士顿房价预测: 众所周知,房价会受到多方面的影响,这就使得人们有机会从外部信息中提取出对房价信息的预测值,那么诸多的外部信息如:位置、交通、是否学区房等如何影响房价,影响房价的程度如何这些信息我们该如何确定呢? 现规定预测值与实际值的偏差为Loss函数: L=12N∑i=1N(yi−zi)2 L= \frac{1}{2N}\sum_{i=1}^N{(y_i - z_i)^2} L=2原创 2021-03-14 16:42:57 · 478 阅读 · 0 评论