![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 57
早春的树长在理想三旬
一路狂奔的傻狍子
展开
-
pytorch中一维卷积Conv1d简介
最近在使用pytorch中的一维卷积来对文本进行处理,进行文本分类任务,查阅了网上相关的博客还有api这里做一个总结。一维卷积,顾名思义就是在一维空间上进行卷积,通常用来处理时序的数据,卷积的过程如下图。进行卷积的数据形状为[batch_size,seq_len,embedding_dim],经过卷积以后变成了[batch_size,out_channels,sql_len-kernel_size+1]的形状,在卷积的时候是在最后一个维度进行的所以需要对数据进行点处理,具体如代码所示。imp.原创 2021-07-16 18:13:18 · 7961 阅读 · 3 评论 -
pytorch-LSTM情感分类
最近在学习pytorch也是正式从tensorflow转移到pytorch,因为很多论文的源码给出的都是pytorch为了方便自己学习比较新的模型和算法也是在不停的学习中,废话不多说正式开始今天的教程,之前给tensorflow挖的坑有时间了也会填上。这次使用的数据集比较大我也是放在了百度云盘需要的朋友可以自行获取,链接:https://github.com/JohnLeek/DeepLearning-study,源码放在了github,要是觉得不错对你有所帮助希望你帮忙给本博客点个赞,给我的githu原创 2021-07-13 08:57:49 · 1877 阅读 · 5 评论 -
pytorch中维度dim的理解
PyTorch 中对 tensor 的很多操作如sum、softmax等都可以设置dim参数用来指定操作在哪一维进行。PyTorch 中的 dim 类似于 numpy 中的 axis,这篇文章来总结一下 PyTorch 中的 dim 操作。首先看一下这个图,图中给出了维度标号,注意区分正负,从左往右数,括号代表的维度分别是 0 和 1 和 2,从右往做为 -3 和 -2 和 -1。待会儿会用到。图1括号之间是嵌套关系,代表了不同的维度。从左往右数,两个括号代表的维度分别是 0 ...原创 2021-06-30 21:53:45 · 2048 阅读 · 4 评论 -
pytorch中max和argmax
max和argmax名字上看起来很相似但是却大有不同max_num,index = torch.max(tensor,dim=?)会在指定的维度上返回最大的数以及其索引如下b = torch.tensor([[[3, 2], [1, 4]], [[5, 6], [7, 8]]])print(b)max_num,index = torch.max(b,dim=2)print(max_num)print(index)输出:tensor([[[3, 2], [1,原创 2021-06-30 09:44:05 · 513 阅读 · 0 评论 -
pytorch中LSTM的输入与输出理解
在阅读本篇博客之前希望你在LSTM方面有一定的知识储备,熟悉LSTM网络的内部结构,方便更好的理解pytorch中有关LSTM相关的api。一、参数理解这里我根据lstm的结构定义了一些参数,参数具体含义可以看注释batch_size = 10 #每个batch的大小seq_len = 2000 #模仿输入到LSTM的句子长度input_size = 30 #lstm中输入的维度hidden_size = 18 #lstm中隐藏层神经元的个数num_layers = 2 # 有多少层l原创 2021-06-29 08:56:56 · 2149 阅读 · 0 评论