pytorch
卷了个积
机器学习、深度学习爱好者
展开
-
pytorch DataLoader 自定义数据集
pytorch 提供了一种数据处理的方式,能够生成mini-batch的数据,在训练和测试的时候进行多线程处理,加快准备数据的速度。这个函数工具是torch.utils.data import Dataset, DataLoader其中Dataset是我们定义自己的多线程数据处理框架的父类,我们定义的框架要继承这个类 下面简单定义数据准备的框架吧!!!from torch.u...原创 2018-07-16 12:13:30 · 3962 阅读 · 0 评论 -
keras、pytorch模型和参数的保存
这篇博文主要简单介绍深度学习框架keras和pytorch的模型保存方法和模型参数保存方法。keras:import kerasform keras.models import load_model,Sequential,Model,Inputfrom keras.layers import Dense,........######model = Sequential()model...原创 2018-07-15 21:26:23 · 3134 阅读 · 0 评论 -
pytorch中 backward 机制理解
backward只能被应用在一个标量上,也就是一个一维tensor,或者传入跟变量相关的梯度。特别注意Variable里面默认的参数requires_grad=False,所以这里我们要重新传入requires_grad=True让它成为一个叶子节点。 对其求偏导: import torch from torch.autograd import Variablea = Vari...转载 2018-08-06 18:39:43 · 6239 阅读 · 1 评论 -
pytorch 卷积填充“same”实现(附代码)
pytorch 中卷积的padding = ‘same’最近在用pytorch做一个项目,项目中涉及到用卷积部分,平时较常用的框架是tensorflow,keras,在keras的卷积层中,经常会使用到参数padding = ‘same’,即使用“same”的填充方式,但是在pytorch的使用中,我发现pytorch是没有这种填充方式的,自己摸索了一段时间pytorch的框架,下面是用pyt...原创 2018-08-06 20:11:22 · 9324 阅读 · 7 评论 -
pytorch 可视化feature map
import torchfrom torch.autograd import Variableimport torch.nn as nnimport picklefrom sys import pathpath.append('/home/songwenzhu/nn/ppy/Residual-Attention-Network/model/')import residual_mode...原创 2018-08-06 20:09:09 · 13087 阅读 · 9 评论