![](https://img-blog.csdnimg.cn/direct/c39b88719f0e439887fe50179b48f6fb.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
模型
文章平均质量分 63
读论文遇到的一些框架
In year
用知识认识更多的人!
展开
-
生成对抗网络GAN的扩展应用理解
注:本文仅个人学习理解,如需详细内容请看原论文!原创 2024-04-17 19:47:48 · 552 阅读 · 0 评论 -
GAN:对抗生成网络【通俗易懂】
对抗生成网络(GAN)是一种深度学习模型,由两个神经网络组成:生成器G和判别器D。这两个网络被训练来协同工作,以生成接近真实数据的新样本。生成器的任务是接收一个随机噪声向量,并将其转换为与真实数据相似的假样本。而判别器则尝试区分生成器生成的假样本和真实数据之间的区别。通过训练,生成器不断优化以生成更逼真的假样本,而判别器也不断优化以更好地区分真假样本。在训练过程中,生成器和判别器之间形成了一种对抗关系:生成器努力欺骗判别器,而判别器努力识别生成器生成的假样本。原创 2024-04-14 12:10:51 · 1175 阅读 · 0 评论 -
MobileNet之【深入理解 深度可分卷积】
在传统卷积神经网络中,内存需求大、运算量大,导致无法在移动设备以及嵌入式设备上运行。增加了超参数α(控制卷积层、核数量)、β(控制输入图像尺寸)。MobileNet大大减少模型的参数与运算量;输入特征矩阵通道=卷积核个数=输出特征矩阵通道。卷积核通道 = 输入特征矩阵通道。输出特征矩阵通道 = 卷积核个数。卷积核通道 = 输入特征矩阵通道。输出特征矩阵通道 = 卷积核个数。但是,卷积核的大小为1.原创 2024-03-23 18:03:35 · 191 阅读 · 1 评论 -
TCN 时序卷积网络 (temporal convolutional network)【因果卷积、空洞卷积】
因果卷积保证了在任何时间点t,输出只依赖于时间点t及其之前的输入,而不依赖于t之后的输入。具体地说,假设我们有一个一维的输入序列和一个大小为k的卷积核,为了实现因果卷积,我们可以在序列的开始处填充k-1个零,然后进行标准的卷积操作。最初的提出是为了解决图像分割的问题,常见的图像分割算法通常使用池化层和卷 积层来增加感受野,同时也缩小了特征图尺寸,然后利用上采样还原图像尺寸,特征图缩小在放大的过程造成了精度上的损失,因此需要一种操作可以在增加感受野的同时保持特征图的尺寸不变,从而代替下采样和上采样操作。原创 2024-01-10 20:58:09 · 2295 阅读 · 0 评论 -
图深度网络浅层理解
图网络。原创 2024-01-16 16:21:59 · 411 阅读 · 0 评论 -
CBAM块:通道、空间注意力(Convolutional Block Attention Module)浅层理解
在空间维度上,重复通道注意块中的池化,然后将两种不同池化得到的特征进行拼接,通过一个卷积层,学习空间的相关性,最后通过sigmoid激活函数,得到空间注意力。特征图经过通道注意块会得到一个值,将这个值与原来的特征图的值相乘得到第二个值,将第二个值进入空间通道,会在次得到一个值,将这个值与第二个值相乘,得到第三个值,最后输出第三个值。将特征图并行通过最大池化和平均池化得到的特征,在经过一个共享MLP,从而得到两个权重,将这两个权重相加在经过sigmoid激活函数,最后得到一个通道权重。原创 2024-01-18 17:37:09 · 421 阅读 · 0 评论