Pytorch笔记
pytorch确实非常好用
无穷升高的卡农
本硕人工智能方向,之后从事搜推方向的工作。关注CV、RS、大模型。
展开
-
目标检测时出现RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0.
RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0.出错代码case1:每个图象的目标个数不尽相同,原始参数适用case2:图象大小不一样case3:样本数不能整除batch_size(据说)造成这个bug的原因有很多,一般都是在用pytorch读取数据时产生的,下面是几种常见的情况。出错代码dataG = ObjectDataset(image_ids, DIR_TRAIN+'/ima转载 2020-08-21 14:00:24 · 2469 阅读 · 0 评论 -
pytroch保存和提取网络模型
1.保存整个模型torch.save(net, 'net.pkl')将整个网络保存下来,直接读取就可以使用。保存的pkl文件较大2.读取整个模型net = torch.load('net.pkl')3.只保存网络的参数等另一种保存网络的方法是之保存网络的参数等信息,pkl文件小,读取也快。但是读取的时候需要先搭建网络。torch.save(net.state_dict(), 'net...原创 2020-03-29 21:17:51 · 250 阅读 · 0 评论 -
学习篇--1.查看GPU信息
学习篇–1.查看GPU信息代码功能torch.cuda.is_available()查看cuda是否可用,返回True为可用torch.cuda.device_count()返回gpu数量torch.cuda.get_device_name(0)返回编号为0的gpu名字,默认从0开始torch.cuda.current_device()返回当前设备编...原创 2019-09-18 09:03:59 · 351 阅读 · 0 评论 -
加载图像数据
加载数据pytorch加载数据有很多方法,下面提供一些网上有的,和我自己喜欢用的。https://blog.csdn.net/qq_38273984/article/details/89252910https://www.cnblogs.com/leokale-zz/p/11275800.htmlpytorch加载图像数据基本上都是继承datasets类,之后使用dataloader类...原创 2020-01-17 13:52:09 · 246 阅读 · 0 评论 -
RuntimeError: Expected object of scalar type Float but got scalar type Double for argument #4 'mat1'
RuntimeError: Expected object of scalar type Float but got scalar type Double for argument #4 ‘mat1’今天,使用pytorch做一个小实验,结果报了上面的这个错误。查了很多资料都没有用。最后一点点调试解决了。我本来打算实验kaggle上csv格式的mnist数据集来做一个简单的网络。因为直接使用p...原创 2020-02-07 15:38:54 · 7755 阅读 · 4 评论 -
pytorch搭建神经网络实现MNIST分类
实战篇 MNIST分类网上有关于MNIST分类的文章:https://blog.csdn.net/out_of_memory_error/article/details/81414986但是他使用的是pytorch自带的mnist数据集,而我想使用一个Kaggle的csv格式的数据集来练习一下。本篇即为使用csv文件的MNIST分类。csv文件:神经网络神经网络部分其实比较容易,先使用...原创 2020-02-08 22:30:12 · 1046 阅读 · 0 评论 -
【基础篇】-tensor(张量)
【基础】-tensor(张量)一.创建一个tensor1.只分配空间x1 = torch.Tensor(5, 3) # 数据是随机的,只是分配了可见,没有初始化,所及数据是对应空间里的数据print(x1)输出:tensor([[7.3470e-39, 8.9082e-39, 8.9082e-39], [1.0194e-38, 9.1837e-39, ...原创 2020-02-09 11:17:43 · 4264 阅读 · 0 评论 -
【基础篇】自动微分
【基础篇】自动微分深度学习的本质就是反向传播,要想反向传播,就必须求导。pytorch的Autograd实现了这个功能.我们在搭建神经网络时,不再需要考虑反向传播的问题,就简单了很多。pytorch中tensor是不能求导的。只有Variable可以。Variable是对tensor的简单封装。几乎支持所有tensor的操作。同时,又添加了其他属性。Variable的属性有:data:保...原创 2020-02-09 15:26:18 · 215 阅读 · 0 评论 -
PyTorch实现经典网络结构-FC+LeNet+VGG+GoogleNet+ResNet
PyTorch实现经典网络结构Reference:VGGGoogleNet :1,21.FC# 全连接神经网络class FCNet(nn.Module): """ 隐藏层1024个神经元的三层神经网络 """ def __init__(self, input_shape, out_dim): super(FCNet, self)...原创 2020-02-12 22:42:01 · 1847 阅读 · 0 评论