Pytorch梯度下降与反向传播的学习与实现

Pytorch梯度下降与反向传播的学习与实现

1.梯度
a 向量
b 学习(参数更新)的方向
2梯度下降
3 常见的导数的计算
4 反向传播算法
a 计算图与反向传播
1数据和操作用图来表示
从后往前,计算每一层的梯度
b 神经网络的计算图
PyTorch完成线性回归
1向前计算
对于pytorch中的tensor,属性requires_grad为true,其默认值为false
b.初始化参数,进入循环(参数的梯度置为0),计算预测值
c.计算Ioss, loss backward()计算梯度
请添加图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值