【无标题】

组队打Boss之pytorch

提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
新手村篇章:第一二章


提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

提示:这里可以添加本文要记录的大概内容:

例如:之所以报pytorch就是想逼自己一下,更加了解下python,学习一些数学知识


提示:以下是本篇文章正文内容,下面案例可供参考

一、pytorch怎么安装

本人使用的是Windows系统所以下面的笔记主要是关于Windows系统的

二、安装步骤

1.安装anaconda

就baga式安装

2.安装pytorch

安装页选项这里关于CUDA有讲究,需要到dos操作系统去使用 nvidia-smi指令去查
具体是小于你的CUDA版本就ok了,当然保守点也可以选择尽量小的

最后一步

先打开下图中的Powershell prompt
再把上一步的安装命令在其窗口
输入后会车就ok,接下来就只是等了在这里插入图片描述

三、语法关卡来啦!!(精英怪)

看我一命通关!!
Tensor张量
第零阶张量 (r = 0) 为标量 (Scalar),第一阶张量 (r = 1) 为向量 (Vector), 第二阶张量 (r = 2) 则成为矩阵 (Matrix)。

第一部分的一些函数

import torch
# 创建tensor,用dtype指定类型。注意类型要匹配
a = torch.tensor(1.0, dtype=torch.float)
# 使用指定类型函数随机初始化指定大小的tensor
d = torch.FloatTensor(2,3)
e = torch.IntTensor(2)
f = torch.IntTensor([1,2,3,4])  #对于python已经定义好的数据结构可以直接转换
print(d, '\n', e, '\n', f)
#打印出的结果
#tensor([[ 7.2398e-07,  4.5710e-41, -2.0912e+23],
#       [ 3.0812e-41,  6.7262e-43,  0.0000e+00]]) 
#从打印出的结果可以看出第一个参数指的是行数,第二个是列数
# tensor([64,  0], dtype=torch.int32) 如果只有一个则是列
# tensor([1, 2, 3, 4], dtype=torch.int32)
# tensor和numpy array之间的相互转换
import numpy as np#这里是因为到时候复习时看的清楚才把import放这里
g = np.array([[1,2,3],[4,5,6]])
h = torch.tensor(g)
print(h)
i = torch.from_numpy(g)
print(i)
j = h.numpy()
print(j)
#tensor([[1, 2, 3],
#       [4, 5, 6]])
#tensor([[1, 2, 3],
#        [4, 5, 6]])
#[[1 2 3]
# [4 5 6]]

#注意:torch.tensor创建得到的张量和原数据是不共享内存的,张量对应的变量是独立变量。
#而torch.from_numpy()和torch.as_tensor()从numpy array创建得到的张量和原数据是共享内存的,张量对应的变量不是独立变量,修改numpy array会导致对应tensor的改变。
g[0,0] = 100
print(i)
# 常见的构造Tensor的函数
k = torch.rand(2, 3) 
l = torch.ones(2, 3)
m = torch.zeros(2, 3)
n = torch.arange(0, 10, 2)
print(k, '\n', l, '\n', m, '\n', n)
#tensor([[0.2652, 0.0650, 0.5593],
#        [0.7864, 0.0015, 0.4458]]) 
# tensor([[1., 1., 1.],
#        [1., 1., 1.]]) 
# tensor([[0., 0., 0.],
#        [0., 0., 0.]]) 
# tensor([0, 2, 4, 6, 8])就是间隔2,左闭右开
# 查看tensor的维度信息(两种方式)
print(k.shape)
print(k.size())
#torch.Size([2, 3])
#torch.Size([2, 3])
# tensor的运算
o = torch.add(k,l)
print(o)
#tensor([[1.2652, 1.0650, 1.5593],
#        [1.7864, 1.0015, 1.4458]])
# tensor的索引方式与numpy类似
print(o[:,1])
print(o[0,:])

#tensor([1.0650, 1.0015])第1列
#tensor([1.2652, 1.0650, 1.5593])第0行

# 改变tensor形状的神器:view
print(o.view((3,2)))
print(o.view(-1,2))

#tensor([[1.2652, 1.0650],
#        [1.5593, 1.7864],
#        [1.0015, 1.4458]])
#tensor([[1.2652, 1.0650],
#        [1.5593, 1.7864],
#        [1.0015, 1.4458]])
#科普下-1就是他根据这个来帮你算出对应的值
# tensor的广播机制(使用时要注意这个特性)
p = torch.arange(1, 3).view(1, 2)
print(p)
q = torch.arange(1, 4).view(3, 1)
print(q)
print(p + q)#这里体现了广播,就是会再复制一列或一行再相加
#view第一个参数指的是行,第二个指列
#tensor([[1, 2]])
#tensor([[1],
#        [2],
#        [3]])
#tensor([[2, 3],
#        [3, 4],
#        [4, 5]])
# 扩展&压缩tensor的维度:squeeze
print(o)
r = o.unsqueeze(1)
print(r)
print(r.shape)
#貌似在图片输入的情况会有用
#tensor([[1.2652, 1.0650, 1.5593],
#        [1.7864, 1.0015, 1.4458]])
#tensor([[[1.2652, 1.0650, 1.5593]],
#
#        [[1.7864, 1.0015, 1.4458]]])
#torch.Size([2, 1, 3])

s = r.squeeze(0)
print(s)
print(s.shape)

#tensor([[[1.2652, 1.0650, 1.5593]],
#
#        [[1.7864, 1.0015, 1.4458]]])
torch.Size([2, 1, 3])

t = r.squeeze(1)
print(t)
print(t.shape)

#tensor([[1.2652, 1.0650, 1.5593],
#        [1.7864, 1.0015, 1.4458]])
#torch.Size([2, 3])

自动求导

import torch
x1 = torch.tensor(1.0, requires_grad=True)
x2 = torch.tensor(2.0, requires_grad=True)
y = x1 + 2*x2
print(y)
#tensor(5., grad_fn=<AddBackward0>)
# 首先查看每个变量是否需要求导
print(x1.requires_grad)
print(x2.requires_grad)
print(y.requires_grad)
#True
#True
#True
# 查看每个变量导数大小。此时因为还没有反向传播,因此导数都不存在
print(x1.grad.data)
print(x2.grad.data)
print(y.grad.data)
#---------------------------------------------------------------------------
#AttributeError                            Traceback (most recent call last)
#/tmp/ipykernel_11770/1707027577.py in <module>
#      1 # 查看每个变量导数大小。此时因为还没有反向传播,因此导数都不存在
#----> 2 print(x1.grad.data)
#      3 print(x2.grad.data)
#      4 print(y.grad.data)
#
#AttributeError: 'NoneType' object has no attribute 'data'
x1
#tensor(1., requires_grad=True)
## 反向传播后看导数大小
y = x1 + 2*x2
y.backward()
print(x1.grad.data)
print(x2.grad.data)

#tensor(1.)
#tensor(2.)
# 导数是会累积的,重复运行相同命令,grad会增加
y = x1 + 2*x2
y.backward()
print(x1.grad.data)
print(x2.grad.data)

#tensor(5.)
#tensor(10.)
# 所以每次计算前需要清除当前导数值避免累积,这一功能可以通过pytorch的optimizer实现。后续会讲到

# 尝试,如果不允许求导,会出现什么情况?
x1 = torch.tensor(1.0, requires_grad=False)
x2 = torch.tensor(2.0, requires_grad=False)
y = x1 + 2*x2
y.backward()
#---------------------------------------------------------------------------
#RuntimeError                              Traceback (most recent call last)
#/tmp/ipykernel_11770/4087792071.py in <module>
#      3 x2 = torch.tensor(2.0, requires_grad=False)
#      4 y = x1 + 2*x2
#----> 5 y.backward()

#/data1/ljq/anaconda3/envs/smp/lib/python3.8/site-packages/torch/_tensor.py in #backward(self, gradient, retain_graph, create_graph, inputs)
#    253                 create_graph=create_graph,
#    254                 inputs=inputs)
#--> 255         torch.autograd.backward(self, gradient, retain_graph, create_graph, #inputs=inputs)
#    256 
#    257     def register_hook(self, hook):

#/data1/ljq/anaconda3/envs/smp/lib/python3.8/site-packages/torch/autograd/__init__.py #in backward(tensors, grad_tensors, retain_graph, create_graph, grad_variables, #inputs)
#    145         retain_graph = create_graph
#    146 
#--> 147     Variable._execution_engine.run_backward(
#    148         tensors, grad_tensors_, retain_graph, create_graph, inputs,
#    149         allow_unreachable=True, accumulate_grad=True)  # allow_unreachable #flag

#RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

比较大篇幅的可能是报错内容哦,酌情看哦
具体要反向传播

总结

以上就是新手村的主要内容,你已经通关了,但保守起见,建议多刷几遍刷经验

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值