Pytorch深度学习笔记(01)--自动求导、梯度下降、反向传播

目录 

工具

一、Pytorch是什么?

张量Tensors

二、Autograd: 自动求导(automatic differentiation)

1、变量(Variable)核心类

2、函数(Function)

3、梯度(Gradients)

梯度(可简单理解为导数)

4、反向传播


工具

  1. dir():打开,查看里面内容
  2. help():说明书

一、Pytorch是什么?

他是一个基于Python的科学计算包,目标用户有两类

  • 为了使用GPU来替代numpy
  • 一个深度学习援救平台:提供最大的灵活性和速度

张量Tensors

张量类似于numpy的ndarrays,不同之处在于张量可以使用GPU来加快计算。

注意

  • torch.Size实际上是一个元组,所以它支持元组相同的操作。
  • 任何在原地(in-place)改变张量的操作都有一个’_’后缀。例如x.copy_(y), x.t_()操作将改变x.

二、Autograd: 自动求导(automatic differentiation)

PyTorch 中所有神经网络的核心是autograd包.

1、变量(Variable)核心类

autograd.Variableautograd包的核心类,它实际上是对张量(Tensor)的封装(容器)

  • 可以通过
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值