![](https://img-blog.csdnimg.cn/20200305170725446.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch
文章平均质量分 71
pytorch学习记录
缦旋律
沉迷磕CP并努力敲代码的小陈
展开
-
language model with pointer network
1.什么是pointer network如上图所示,P1,P2,P3,P4P_1,P_2,P_3,P_4P1,P2,P3,P4的坐标分别为(x1,y1x_1,y_1x1,y1),(x2,y2x_2,y_2x2,y2),(x3,y3x_3,y_3x3,y3),(x4,y4x_4,y_4x4,y4),我们想从这些点中找出几个点,这几个点的坐标连起来后,能涵盖所有点。以上面这幅图为例,将各个点的坐标输入encoder后,decoder依次输出1、4、2、1。P1,P4,P2P_1,P原创 2021-06-12 16:30:55 · 146 阅读 · 0 评论 -
pytorch的scatter和scatter_add操作
tensor的scatter和scatter_add操作,这篇讲得比较详细,这里我就简单总结一下,以a.scatter(dim=dim,index=index,src=src)为例len(a.size())=len(index.size())=len(src.size())=dim_num 即三者维度数必须相等a与index的关系:a.size(i)≥index.size(i) i≠dima.size(dim)与ind原创 2021-06-10 10:31:30 · 1202 阅读 · 1 评论 -
pytorch实现seq2seq(二):Luong_attention机制
本篇实现的是Luong的attention,即: 其中hˉs\bar{h}_shˉs表示encoder每个hidden_state的输出,hth_tht表示decoder每个hidden_state的输出。文章目录1.载入原始数据2.数据预处理2.1 中英文分词2.2 建立词典2.3 使用词典来对原始句子进行编码2.4 划分训练集和原创 2021-06-06 17:45:39 · 1272 阅读 · 2 评论 -
pytorch实现seq2seq(一)
文章目录1.载入原始数据2.数据预处理2.1 中英文分词2.2 建立词典2.3 使用词典来对原始句子进行编码2.4 划分训练集和验证集2.5 自定义dataloader3.搭建模型3.1 encoder3.2 decoder3.3 seq2seq3.4 自定义损失函数4.训练模型4.1 初始化模型4.2 定义训练过程和验证过程的函数4.3 开始训练5.检验效果import osimport sysimport mathfrom collections import Counterimport nu原创 2021-06-05 23:56:43 · 1335 阅读 · 1 评论 -
pytorch实现情感分类(wordavg&lstm&cnn)
文章目录1.数据准备2.wordavg model2.1定义模型2.2设置参数2.3 初始化模型2.4 glove初始化模型embedding层2.5 定义训练过程、评估函数2.6 开始训练2.7 检验分类效果3.LSTM模型4.CNN 模型import torchimport torchtextfrom torchtext import datafrom torchtext import datasetsfrom torchtext.vocab import GloVeimport spacy原创 2021-06-03 11:15:00 · 710 阅读 · 0 评论 -
使用LSTM训练语言模型(以《魔道祖师》为corpus)
import torchtextfrom torchtext.vocab import Vectorsimport torch from torch import nnimport numpy as npimport randomimport jiebarandom.seed(53113)np.random.seed(53113)torch.manual_seed(53113)use_cuda = torch.cuda.is_available()if use_cuda: t原创 2021-06-01 21:48:59 · 870 阅读 · 0 评论 -
pytorch实现word_embedding(negative_sampling的skip-gram模型)
什么是word_embedding呢?简单来说,就是用一个向量来表示一个word。 比如我们现在有10个word,我们想用数字来表示这些word,使得我们一看到数字就能知道它代表的是什么单词,那么最简单的操作就是one-hot。但是当有1k个、1w个单词时,使用one-hot就会使得维数很大,并且one-hot还不能显示出单词之间的相关性。原创 2020-11-06 21:23:03 · 1504 阅读 · 5 评论 -
基于transfer-learning的风格迁移
风格迁移就是让一张照片的内容(content)不变,但是风格(style)却和另一种照片接近。训练过程中的loss由两部分组成,一个是content_loss,表示target_pic与content_pic之间内容差别的大小;一个是style_loss,表示target_pic与style_pic之间风格差别的大小。在本例中,一开始,我们直接copy content_pic作为target_pic,在训练过程中,使targ原创 2020-11-06 20:50:59 · 219 阅读 · 0 评论 -
LSTM实战:空气质量预测
LSTM实战:空气质量预测。pytorch代码,超详细。原创 2020-10-17 08:33:12 · 13221 阅读 · 42 评论 -
RNN参数详解+实例分析
import torchfrom torch import nnimport numpy as npfrom torch import optimrnn = nn.RNN(input_size=100,hidden_size=10,num_layers=2) #初始化一个RNN网络# input_size 是一个单词或者汉字的size,比如你embedding的时候,一个单词用一个10...原创 2020-04-01 20:10:52 · 4125 阅读 · 0 评论 -
pytorch:mnist+vgg16
在vgg16的基础上进行修改,搭建自己的网络训练mnist数据集import torchfrom torch import nnfrom torch.nn import functional as Ffrom torchvision import transformsfrom torch.utils.data import DataLoader,Datasetfrom torch im...原创 2020-03-30 21:22:00 · 3435 阅读 · 4 评论 -
pytorch:mnist+resnet
对resnet不熟悉的,可以看一下这篇:cifar-10+resnetimport torchfrom torch import nnfrom torch.nn import functional as Ffrom torchvision import transformsfrom torch.utils.data import DataLoader,Datasetfrom torc...原创 2020-03-30 20:42:54 · 1139 阅读 · 0 评论 -
pytorch:基于resnet18的transfer_learning(pokemon数据集实例分析+详细代码+完整数据集)
用pytorch实现transfer_learning,pokemon数据集实例分析+详细代码+完整数据集原创 2020-03-25 11:49:58 · 1220 阅读 · 0 评论 -
pytorch:pokemon+resnet详细代码+数据集
用resnet实现pokemon的划分。详细代码+解释+完整数据集资源原创 2020-03-24 12:18:52 · 1680 阅读 · 7 评论 -
pytorch:实例讲解DataLoader具体工作流程
torch中dataloader的具体使用方法;实例讲解原创 2020-03-20 17:42:36 · 2518 阅读 · 2 评论 -
pytorch:load_state_dict
在训练比较大、耗时较久的网络时,如果突然停电、断网或者一些意外情况发生导致训练中断,那么已经训练好的内容可能全部丢失,这时我们就需要在训练过程中把一些时间点的checkpoint保存下来,及时训练意外中断,那么我们也可以在之后把这些checkpoint下载下来,重新开始训练。(谁能想到我刚刚码好这段话就停电了呢?...原创 2020-03-18 10:47:03 · 6909 阅读 · 0 评论 -
pytorch:cifar-10+lenet5代码实现
pytorch;cnn;lenet5;cifar-10原创 2020-03-15 19:24:06 · 825 阅读 · 0 评论 -
pytorch:cifar-10+resnet代码实现
pytorch;cnn;resnet;cifar-10;原创 2020-03-15 19:12:20 · 2745 阅读 · 0 评论 -
pytorch:torchvision.transforms实例讲解
crop,filp,resize,totensor,topilimage等常用操作原创 2020-03-13 12:00:15 · 1189 阅读 · 0 评论 -
pytorch:nn.Softmax()
torch.nn.Softmax中的dim参数原创 2020-03-12 17:42:04 · 32224 阅读 · 12 评论 -
pytorch:nn.BatchNormal
nn.batchnormalmomentum原创 2020-03-11 18:19:02 · 1688 阅读 · 0 评论 -
pytorch:F.cross_entropy
import torchimport torch.nn.functional as Fx = torch.tensor([[0.5,0.25,0.25,0.25]])F.cross_entropy(x,torch.tensor([0])) #结果是:tensor(1.2049)我们先看一下F.cross_entropy的解释:“This criterion combines lo...原创 2020-03-08 16:28:20 · 1333 阅读 · 0 评论 -
pytorch:数学运算、近似值、clamp
import torch±*/维度不同的时候会broadcastelement-wisea = torch.ones(2,2)b = torch.tensor(4)print(a + b) #用到了broadcastprint(a.add(b))print(torch.add(a,b))tensor([[5., 5.], [5., 5.]])tensor...原创 2020-03-06 17:05:21 · 430 阅读 · 0 评论 -
pytorch:norm/argmax/argmin/topk/kthvalue以及比较函数
norm/argmax/argmin/topk/kthvaluetorch.ge/gt/le/lttorch.eq/equal原创 2020-03-06 17:04:05 · 1111 阅读 · 1 评论 -
pytorch:where & gather
import torchwherewhere(condition,a,b) 满足条件,返回a里面的对应元素,不满足条件,返回b里面对应的元素a = torch.rand(2,3)b = torch.rand(2,3)torch.where(a>b,a,b)tensor([[0.2254, 0.7619, 0.9761], [0.7787, 0.4238, ...原创 2020-03-06 17:00:15 · 234 阅读 · 0 评论 -
pytorch:tensor的合并与分割
cat\stack\split\chunk原创 2020-03-05 20:47:07 · 1721 阅读 · 0 评论 -
pytorch:tensor的broadcast
broadcasting# 按照尾部维度对齐x=torch.ones(5,1,4,2)y=torch.ones(3,1,1)(x+y).size()torch.Size([5, 3, 4, 2])首先按尾部维度对齐 即1对2,1对4,3对1,然后没有维度能对5,就补一个维度,size为1,则1对5每一对中,如果两个数字不一样,那么就把1变成另一个,比如说第一对是1对2,那么就...原创 2020-03-05 17:37:39 · 2336 阅读 · 0 评论 -
pytorch:tensor维度变化
unsqueeze\squeezeexpand\repeattranspose\permute原创 2020-03-05 17:34:35 · 476 阅读 · 0 评论 -
pytorch切片与索引
import torchimport numpy as np切片与索引a = torch.randint(1,10,[4,3,5,5]) #4张图片,3个通道,长和宽都是28个pixela[0].shape #第一张图片的尺寸 0表示第一张torch.Size([3, 5, 5])a[1,2].shape #第二张图片,第三个通道的尺寸torch.Size([5, 5])...原创 2020-03-05 17:31:15 · 294 阅读 · 0 评论