深度学习
文章平均质量分 92
K24B;
这个作者很懒,什么都没留下…
展开
-
文档分类Transformer 模型(pytorch实现)
Transformer用于分档分类原创 2024-05-17 15:21:42 · 1044 阅读 · 0 评论 -
文本分类TextRNN_Att模型(pytorch实现)
TextRNN_Att模型在TextRNN的基础上添加了Attention模块 使提取到的特征更具针对性原创 2024-05-15 20:54:44 · 1020 阅读 · 0 评论 -
文档分类DPCNN简介(pytorch实现)
DPCNN模型是CNN模型的一个变种,用来做文档分类任务原创 2024-05-14 19:56:41 · 860 阅读 · 0 评论 -
文档分类FastText模型 (pytorch实现)
FastText是一种速度和性能比较好的一种文档分类的方法原创 2024-05-14 18:59:09 · 835 阅读 · 0 评论 -
文本分类TextRCNN模型(pytorch实现)
TextRCNN综合了RNN和CNN 的优势,让我们来了解一下原创 2024-05-14 15:31:37 · 822 阅读 · 0 评论 -
TextCNN网络详解(pytorch实现文本分类)
textcnn网络在NLP文档分类任务上有较好的性能,让我们来了解一个TextCNN的网络结构及pytorch代码实现原创 2024-05-13 16:45:52 · 827 阅读 · 0 评论 -
AlexNet网络结构详解(含各层维度大小计算过程)与PyTorch实现
以往池化的大小PoolingSize与步长stride一般是相等的,例如:图像大小为256*256,PoolingSize=2×2,stride=2,这样可以使图像或是FeatureMap大小缩小一倍变为128,此时池化过程没有发生层叠。2.激活函数:ReLU。256)卷积核,padding=1,stride=1,所以经过变化(13-3+2。384)卷积核,padding=1,stride=1,所以经过变化(13-3+2。834)卷积核,padding=1,stride=1,所以经过变化(13-3+2。原创 2023-08-05 18:54:41 · 3239 阅读 · 1 评论 -
VGGNet------超经典神经网络结构与PyTorch实现
times$2的MaxPooling,并没有出现AlexNet中的11x11卷积核、5x5卷积核、3x3 MaxPooling等较大卷积和池化操作。2、VGGNet中是在卷积神经网络中使用1x1卷积核,见网络结构C中。1x1的卷积层的主要意义在于非线性变换和降维,在这里则是非线性变换。\times$3的卷积核,stride,输入输出高和宽度不变。但输出通道是输入通道的2倍。1、VGGNet基本上采用的都是3$\times。,每次高和宽度都减半。原创 2023-08-05 21:30:19 · 132 阅读 · 2 评论 -
经典卷积神经网络LeNet
softmax层:(84,10)模型的初衷是为了做数字识别故最后是10分类。5)的卷积核,卷积之后图片变为(32-5+2。5)的卷积核,卷积之后图片变为(14-5+2。0+1)/1=10,所以图片的大小为(16。1)的卷积核,卷积之后图片变为(5-1+2。0+1)/1=28,所以图片的大小为(6。0+1)/1=5,所以图片的大小为(16。32),通过6个形状为(1。14),通过16个形状为(6。2),故图片大小变为(16。28),池化核大小为(2。10),池化核大小为(2。5),16个形状为(16。原创 2023-08-21 17:19:38 · 105 阅读 · 1 评论