Pytorch---Pytorch张量的变形与自动微分

一、张量的变形

1.张量的形状变换

代码

import torch
import numpy as np

if __name__ == '__main__':
    t = torch.randn(4, 6)
    print(t.shape)
    # 类型的转换
    t1 = t.view(3, 8)
    print(t1.size())
    # 转换为2维,最后一个维度为1,第一个维度-1代表自动计算
    t2 = t.view(-1, 1)
    print(t2.shape)

    print('----------------------------------------')

    t = torch.randn(12, 4, 4, 3)
    print(t.shape)
    tt = t.view(12, 4 * 4 * 3)
    print(tt.shape)

结果

在这里插入图片描述

2.去除张量中维度为1的维度

代码

import torch
import numpy as np

if __name__ == '__main__':
    t = torch.randn(4, 6)
    t = t.view(1, 4, 6)
    print(t.size())
    t1 = torch.squeeze(t)
    print(t1.shape)

结果

在这里插入图片描述

二、张量的自动微分

代码

import torch
import numpy as np

if __name__ == '__main__':
    # requires_grad属性为True的时候,框架会跟踪该变量的自动微分计算
    t = torch.ones(2, 2, requires_grad=True)
    y = t + 5
    print(y.grad_fn)  # 返回计算得到此张量的方法
    print(y.requires_grad)  # requires_grad属性为True的时候,框架会跟踪该变量的自动微分计算
    z = y * 2
    print(z.grad_fn)  # 返回计算得到此张量的方法
    print(z.requires_grad)  # requires_grad属性为True的时候,框架会跟踪该变量的自动微分计算
    out = z.mean()  # out此时是标量值
    out.backward()  # 进行自动微分运算

    result = out.detach()  # 通过这个detach()方法,来截断梯度计算,后续使用result进行计算不会进行自动微分运算

    print(result.requires_grad)

    print(t.grad)  # 输出t的梯度,grad这个属性会记录计算得到的梯度

    # 在这里进行的运算不会进行自动微分的跟踪运算
    with torch.no_grad():
        yy = t + 2
        print(yy.requires_grad)

结果

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

水哥很水

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值