pytorch 学习
文章平均质量分 82
K24B;
这个作者很懒,什么都没留下…
展开
-
文档分类Transformer 模型(pytorch实现)
Transformer用于分档分类原创 2024-05-17 15:21:42 · 1198 阅读 · 0 评论 -
文本分类TextRNN_Att模型(pytorch实现)
TextRNN_Att模型在TextRNN的基础上添加了Attention模块 使提取到的特征更具针对性原创 2024-05-15 20:54:44 · 1095 阅读 · 0 评论 -
文档分类DPCNN简介(pytorch实现)
DPCNN模型是CNN模型的一个变种,用来做文档分类任务原创 2024-05-14 19:56:41 · 929 阅读 · 0 评论 -
文档分类FastText模型 (pytorch实现)
FastText是一种速度和性能比较好的一种文档分类的方法原创 2024-05-14 18:59:09 · 945 阅读 · 0 评论 -
文本分类TextRCNN模型(pytorch实现)
TextRCNN综合了RNN和CNN 的优势,让我们来了解一下原创 2024-05-14 15:31:37 · 1005 阅读 · 0 评论 -
TextCNN网络详解(pytorch实现文本分类)
textcnn网络在NLP文档分类任务上有较好的性能,让我们来了解一个TextCNN的网络结构及pytorch代码实现原创 2024-05-13 16:45:52 · 1343 阅读 · 0 评论 -
深度学习pytorch之dataclass
为了解释Dataclass,我们可以自己实现一个类,然后通过@dataclass装饰器来实现同样的功能,这个类能够存储一个数字,拥有比大小的功能。通过上面,很明显使用dataclass装饰器,很大程度上减少了代码量,很方便。除了上面的整型外,还可以使用其他的类型,包括自己定义的数据类型。深度学习pytorch之@dataclass。原创 2023-10-09 20:59:19 · 146 阅读 · 0 评论 -
基于词向量的faq问答(附代码)
模型保存可以有很多种格式,根据格式的不同可以分为2种,一种是保存为.model的文件,一种是非.model文件的保存。这两种方式的加载在获取词向量的时候应该是差别不大,区别就是.model可以继续训练,但是考虑到存在这样的场景,模型训练以后,会有新的语料,也就存在新词,这个时候新词用。里面的每一个question分词,并且过滤掉停用词,并把过滤之后的词放到。并不可视,它们的内存占用要少一些,加载的时间要多一点。相当于用户提出的问题,按照上面的方式进行分词,文件中的问答卷,将其中的。(貌似这样的,反正就是。原创 2023-06-15 22:19:44 · 166 阅读 · 3 评论 -
AlexNet网络结构详解(含各层维度大小计算过程)与PyTorch实现
以往池化的大小PoolingSize与步长stride一般是相等的,例如:图像大小为256*256,PoolingSize=2×2,stride=2,这样可以使图像或是FeatureMap大小缩小一倍变为128,此时池化过程没有发生层叠。2.激活函数:ReLU。256)卷积核,padding=1,stride=1,所以经过变化(13-3+2。384)卷积核,padding=1,stride=1,所以经过变化(13-3+2。834)卷积核,padding=1,stride=1,所以经过变化(13-3+2。原创 2023-08-05 18:54:41 · 5056 阅读 · 1 评论 -
BERT参数计算,RBT3模型结构
Bert沿用了惯用的全连接层大小设置,即4 * dmodle = 3072,其中用到了两个参数W1,W2,其中W1(768,3072),W2(3072,768),b1(768,1),b2(3072,1)。的模型由多层双向的Transformer编码器组成,由12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。解释:m为输入的单词的数量,768位每个词的维度,64是因为分成了12个head(768/12)。:词汇量的大小为30522,每个词都是768维,共30522*768。原创 2023-07-21 13:12:10 · 1155 阅读 · 1 评论 -
VGGNet------超经典神经网络结构与PyTorch实现
times$2的MaxPooling,并没有出现AlexNet中的11x11卷积核、5x5卷积核、3x3 MaxPooling等较大卷积和池化操作。2、VGGNet中是在卷积神经网络中使用1x1卷积核,见网络结构C中。1x1的卷积层的主要意义在于非线性变换和降维,在这里则是非线性变换。\times$3的卷积核,stride,输入输出高和宽度不变。但输出通道是输入通道的2倍。1、VGGNet基本上采用的都是3$\times。,每次高和宽度都减半。原创 2023-08-05 21:30:19 · 229 阅读 · 2 评论 -
经典卷积神经网络LeNet
softmax层:(84,10)模型的初衷是为了做数字识别故最后是10分类。5)的卷积核,卷积之后图片变为(32-5+2。5)的卷积核,卷积之后图片变为(14-5+2。0+1)/1=10,所以图片的大小为(16。1)的卷积核,卷积之后图片变为(5-1+2。0+1)/1=28,所以图片的大小为(6。0+1)/1=5,所以图片的大小为(16。32),通过6个形状为(1。14),通过16个形状为(6。2),故图片大小变为(16。28),池化核大小为(2。10),池化核大小为(2。5),16个形状为(16。原创 2023-08-21 17:19:38 · 193 阅读 · 1 评论 -
pytorch 小功能之TensorDataset和DataLoader
一起用(批量处理数据),把数据划分为相同大小(除了最后一个。的作用是将数据打包,一般个。类型的数据绑在一起。原创 2023-07-31 18:10:31 · 340 阅读 · 1 评论