pytorch
zkq_1986
这个作者很懒,什么都没留下…
展开
-
【torch】torch中的permute用法
permute将tensor的维度进行转换。举例:import torchimport numpy as npa=np.array([[[1,2,3],[4,5,6]]])b=torch.tensor(a)print(b)print(b.size()) # ——> torch.Size([1, 2, 3])c=b.permute(2,0,1)print(c.size()) # ——> torch.Size([3, 1, 2])print(c)c = ...原创 2020-07-25 15:37:43 · 1666 阅读 · 0 评论 -
【pytorch】pytorch lstm实现
lstm里,多层之间传递的是输出ht ,同一层内传递的细胞状态(即隐层状态)看pytorch官网对应的参数nn.lstm(*args,**kwargs),默认传参就是官网文档的列出的列表传过去。对于后面有默认值(官网在参数解释第一句就有if啥的,一般传参就要带赋值号了。)官网案例对应的就是前三个。input_size,hidden_size,num_layersParmerters:input_size– The number of expected features in the i.转载 2020-07-20 21:23:47 · 1774 阅读 · 0 评论 -
【pytorch】查看torch的gpu是否可用
torch.cuda.is_available()cuda是否可用;torch.cuda.device_count()返回gpu数量;torch.cuda.get_device_name(0)返回gpu名字,设备索引默认从0开始;torch.cuda.current_device()返回当前设备索引;原创 2020-06-28 14:26:29 · 37275 阅读 · 2 评论 -
【pytorch】gpu训练的模型无法在cpu下使用问题解决
最近遇到一个问题,发下gpu训练的模型在cpu下不能跑,很难受。结果发现原来是自己使用了DataParallel的问题,我保存的是整个模型。model=DataParalle(model)torch.save(‘xx.pkl’,model)然后把模型copy到自己电脑上用cpu跑model=torch.load(‘xx.pkl’)#此处报错了。。。。原因是cpu环境不能直接导入gpu训练的DataParallel模型所以换个策略,现在gpu把模型转化掉model =转载 2020-06-05 11:15:42 · 4577 阅读 · 1 评论 -
【pytorch】pytorch中的state_dict解读
在pytorch中,torch.nn.Module模块中的state_dict变量存放训练过程中需要学习的权重和偏执系数,state_dict作为python的字典对象将每一层的参数映射成tensor张量。import torch.nn as nnclass A(nn.Module): def __init__(self): super(A,self).__init...原创 2019-10-18 17:35:11 · 549 阅读 · 0 评论