pytorch
weixin_41950276
这个作者很懒,什么都没留下…
展开
-
pytorch学习总结
1.prtorch有不同种类的数据类型:32位浮点型,torch.FloatTensor;64位浮点型,torch.DoubleFloatTensor; 16位整形,torch.ShortTensor ; 32位整型,torch.IntTensor ; 64位整型,torch.LongTensor2.一个torch.autograd.Variable有三个属性:data , grad , gr...原创 2018-10-12 16:17:50 · 669 阅读 · 0 评论 -
pytorch中几种常用的类总结
torch.utils,data.dataset => 用于下载和预处理数据集torch.utils.data.dataloader => 用来加载数据集并且声称一个个的batch,打乱或者顺序排列。torch.nn 层的结构,损失函数,都来自于这类,构建模型都是继基类nn.Module。torchvision.transfrom中有两个数据格式转换的类,一个是ToTens...原创 2018-10-12 16:17:31 · 1348 阅读 · 0 评论 -
torch.squeeze()函数的理解
import torcha=torch.Tensor([[1],[1]])b=torch.squeeze(a)c=1print(' a :', a ,' b: ', b , ' c: ' , c)print('\n',a.size(),b.size())我们可以看到本来2x1=>2的维度,也就是,[[1],[1]]=>[1,1]...原创 2018-11-04 09:43:37 · 2974 阅读 · 0 评论 -
eval()函数的理解
import tensorflow as tfimport numpy as npwith tf.variable_scope("test1",initializer=tf.constant_initializer(0.4)): var1=tf.get_variable('firstvar',shape=[2],dtype=tf.float32) with tf.va...原创 2018-11-15 14:08:47 · 825 阅读 · 0 评论 -
pytorch forward两个参数
以channel Attention Block为例子class CAB(nn.Module): def __init__(self, in_channels, out_channels): super(CAB, self).__init__() self.global_pooling = nn.AdaptiveAvgPool2d(output_si...原创 2019-04-07 14:57:25 · 7664 阅读 · 0 评论 -
pytorch loss函数的选择
https://blog.csdn.net/lyy14011305/article/details/88664518原创 2019-04-20 16:02:40 · 874 阅读 · 0 评论 -
pytorch加载部分模型
总结一下:1.加载预训练的模型ckpt = torch.load(ckpt_path)2.将预训练模型里面的不需要的键值对给删掉:restore_dict = {k: v for k, v in ctpt.items() if k in model_dict and xxxxxx }3.更新现有的model_dictmodel_dict.update(restore_di...原创 2019-06-02 11:18:29 · 3740 阅读 · 2 评论