自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

自注意力计算在非重叠的局部窗口内进行,每个窗口包含固定数量的token,从而使计算复杂度相对于图像大小是线性的。在连续的Transformer块中,窗口划分方式在每一层之间进行移位,使得跨窗口的连接得以实现,增强了模型的建模能力。将这些特征投影到一个任意维度(记作C),例如96维(Swin-T)或128维(Swin-B)。Swin Transformer的分层结构由四个阶段组成,每个阶段生成不同分辨率的特征。Stage 2:通过合并相邻token,将特征图分辨率降低一半(2×下采样),生成。

2024-08-12 09:51:46 739

原创 Mask-guided Spectral-wise Transformer(MST)

MSAB: MST 的基本单元是MSAB,包括两次层归一化 、一个掩模引导的频谱注意力 模块(MS-MSA)和一个前馈神经网络(FFN)在直接使用 Transformer 进行 HSI 恢复时,传统的 Transformer 模型可能 会注意到一些。为了解决这一挑战,本文提出了利用Transformer架构和自 注意力机制来更好地建模高光谱数据中的非局部依赖关系。下采样模块是一个步长为4×4的卷积层,用于降低特征图的尺寸 并增加通道数量。将瓶颈层 的特征进行逐步恢复和扩展。

2024-07-22 10:15:57 1021

原创 HCS² -Net ,用于高光谱压缩快照重建的无监督空间-光谱网络

HCS² -Net 通过将随机编码和快照测量作为输入,利用 BRB 和空间-光谱注意力模块提取特征,并通过最小化重建误差来学习网络参数,最终输出重建后的高光谱图像。

2024-07-15 10:05:55 660

原创 基于UNet结构的卷积神经网络模型

可以看这个视频 讲怎么连接 【十分钟讲懂Unet | The U-Net (actually) explained in 10 minutes】 https://www.bilibili.com/video/BV1oN4y1Y7tB/?# 下采样部分# 上采样部分# 上采样的时候需要拼接起来# 输出预测,这里大小跟输入是一致的# 可以把下采样时的中间抠出来再进行拼接,这样修改后输出就会更小5.测试#输出 torch.Size([2, 3, 256, 256]) 就代表正确了。

2024-07-07 16:25:35 1040

原创 C++ 基础学习 (自用)

iostream是标准的输入 输出 流头文件,编码是必备。再加上这句话()在输入输出是就可以直接cin >>;不然的话,输入输出都得 在cout前面加std:: 例如(2. cmath是数学函数库头文件 ,用于计算abs()计算绝对值;sqrt()计算平方根cbrt()计算立方根pow()幂运算 ceil()向上取整 floor()向下取整3. cstringcstring 是字符串头文件,输入输出字符串时需要它。4.algorithm 标准算法库。

2024-01-14 13:05:38 970 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除