pytorch小问题

pytorch张量的保存和恢复

tensor本身就是对象 如果想要保存和恢复对应的对象 使用 torch.save 和 torch.load即可
就像picke的load 和dump一样

t2 = torch.randn([1024, 1024])
torch.save(t2, "t1.pth")

t2l = torch.load(t2, "t1.pth")

当然save和load 还涉及到具体的设备 比如在GPU上的变量被保存时应该怎么恢复到CPU上 存在这个问题
这需要使用torch.load 中的 map_location 参数
具体看这里 torch.load 的设备映射参数

pytorch中的nn.Module 和nn.Sequencal 扮演了什么角色

模型本质上是一堆的tensor组成的计算图。 nn.Module其实就是一个外壳 在文档中被称之为
Containers 把模型包括的一些作为参数的张量和张量之间的联系关系记录下来。之后可以一并返回给优化器。或者在保存的时候作为一个整体被保存到硬盘上。
对于nn.Module() 创建的对象是一个callable 对象本质上是一个 函数

net = MyModule() # MyModule() extends from nn.Module 
output = net(input) # 其实调用给的是MyModule中的 forward()
pytorch模型的保存和恢复
  1. 最原始的方式是直接将Module整体 torch.save(nn.Module())

  2. 获取nn.Module 的state_dict 然后只使用torch.save保存state_dict 这样不保存模型结构 这样会比较省时间和空间 但是回复的时候 必须要有先创建之前的模型的结构 将使用torch.load() 载入的state_dict 载入到对应的 Module中即可 这种适用于训练过程中保存模型的需求

pytorch中的优化器相关

对于计算图中的每个tensor 可以从loss标量开始 使用loss.backward()计算出对应的每个tensor的 梯度 也就是 tensor.grad
创建一个优化器其时 传入的参数是 Module的 参数

# 将net1的参数传入到 SGD 优化器中
optimizer = torch.optim.SGD(net1.parameters(), lr=0.5)
# ....此处循环进行进行
optimizer.zero_grad() # 将优化器控制的网络参数的梯度清零
loss.backward()      # 反向传播计算给每个对应的tensor生成梯度
optimizer.step()     # step 就是根据learning rate 和backward 生成的参数 来更新tensor的值 
pytorch中的损失函数

损失函数的调用举例

loss = nn.CrossEntropyLoss()
input = torch.randn(3, 5, requires_grad=True)
target = torch.empty(3, dtype=torch.long).random_(5)
output = loss(input, target)
output.backward()

从上面的例子中可以看到 nn.CrossEntropyLoss 这个类创建了对象以后直接把对象当做函数用 这样看起来有一点奇怪 但是实际上是 在python中函数本身就是实现了 __call__() 方法的对象 所以其实是 在nn.CrossEntropyLoss的类方法__call__()中实现了计算交叉熵的逻辑

pytorch中的内置函数

pytorch的内置函数 比如 nn.Relu() nn.Linear() 等 和上面的交叉熵类似 本质上是类 实际上可以看做是一个可以定制化的函数 可以把一些参数 在创建具体对象的时候就像构造偏函数一样传入部分参数 数据当做最终的参数传入

下面是第一次用markdown写博客的测试 请忽略
J α ( x ) = ∑ m = 0 ∞ ( − 1 ) m m ! Γ ( m + α + 1 ) ( x 2 ) 2 m + α ,行内公式示例 J_\alpha(x) = \sum_{m=0}^\infty \frac{(-1)^m}{m! \Gamma (m + \alpha + 1)} {\left({ \frac{x}{2} }\right)}^{2m + \alpha} \text {,行内公式示例} Jα(x)=m=0m!Γ(m+α+1)(1)m(2x)2m+α,行内公式示例

薪水

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值