pytorch官方教程学习笔记05:LEARNING PYTORCH WITH EXAMPLES

官网

1.autograd:

When using autograd, the forward pass of your network will define a computational graph; nodes in the graph will be Tensors, and edges will be functions that produce output Tensors from input Tensors. Backpropagating through this graph then allows you to easily compute gradients.

2.可以自己定义backward和forward。

感觉没啥用,就没看。

本教程没仔细看,感觉涉及到的都是更基础的过程,而现在自己只追求基本会用。

并且发现,在网络中貌似都只有optimizer.zero_grad(),将优化器清零的操作,而其他的清零操作则没有。

后面一半都有optimizer.step(),目的根据梯度更新网络参数,所以应该只需要清零优化器吧!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值