- 博客(6)
- 收藏
- 关注
原创 Pytorch怎么同时让两个dataloader打乱的顺序是相同
思路:将两个数据集按照对应顺序写成一个数据集,然后再用dataloader取出代码:from torch.utils.data import Datasetfrom torch.utils.data import DataLoader`class MyDataset_v1(Dataset):def init(self):self.data = [1, 2, 3, 4]def __len__(self): return len(self.data)def __getitem__(se
2021-01-27 13:20:18 2344
原创 DeepLearning-深度学习中特征融合方式
这里写自定义目录标题从多源信息融合谈起,其主要是数据层、特征层和决策层,数据层融合计算开销大,但是不损失信息,另外两类都是在数据分析之后,损失了部分信息,但是操作性较高。在深度学习任务中,海量的结构化数据使得从数据层融合比较困难,另外,很多网络的connection(ResNet, DenseNet, Transformer等)设计也融合了单源信息的多尺度特征。基于这两点,深度学习任务(CV,NLP为代表)主要在深度特征信息层进行融合。主要分类:Point-wise addition / Eleme
2021-02-01 23:04:03 6040
原创 Pytorch-F函数(torch.nn.functional)和nn(torch.nn)的区别
torch.nn函数的实现去调用torch.nn.functional,实现方式是一致的。它们的区别是:nn函数可以写在深度学习模型的初始化中,F函数不可以,因为其需要输入实际的input例如nn.ReLu和F.relu
2021-01-30 00:57:06 3441 1
原创 Pytorch-巧用nn.Sequential包装你的深度学习结构
思路:自定义简单的tensor,将设计的深度学习的层包装到nn.Sequential中代码:import torchfrom torch import optim, nnimport torch.nn.functional as Fx = torch.Tensor([1, 2, 3, 4, 5]).reshape(1, 1, 5)padding_layer = torch.nn.ReflectionPad1dnet1 = nn.Sequential( padding_layer((1
2021-01-29 15:27:45 351
原创 Python-map+lamda使你的效率翻倍
思路:map函数使一个或者多个序列经过lamda函数映射成新的序列代码;y = list(map(lambda x: pow(x, 2), range(5)))print(y)运行结果:[0, 1, 4, 9, 16]
2021-01-28 16:42:18 327
原创 Pytorch-怎么让两个dataloader打乱顺序相同,自定义一个sampler
思路:自定义一个sampler,将采样方式传进不同的dataloader,则取出的数据一致代码:import torchfrom torch import nnfrom torch.utils.data import Datasetfrom torch.utils.data import DataLoaderclass MyDataset_v1(Dataset): def __init__(self): self.data = [1, 2, 3, 4] de
2021-01-27 14:43:45 1364 4
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人