自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 hexo g 公式`{}`太多报错

hexo g公式{}太多报错

2024-04-16 14:04:44 570

原创 typora 写作用法

另外,如果你要跳转的锚点本身就是标题的话(例如 h2 跳转),Typora也是支持直接在跳转的起始位置引用链接的。主要实现点击后跳转到相应位置,用来引用、图片的跳转很好用。不使用left和right关键词。开4次根号下的x除以y。

2024-03-30 22:44:24 1251

翻译 Cascaded Local Implicit Transformer for Arbitrary-Scale Super-Resolution

隐式神经表示最近在表示任意分辨率的图像方面显示出了很有前途的能力。在本文中,我们提出了一种局部隐式变换器(LIT),它将注意力机制和频率编码技术集成到局部隐式图像函数中。我们设计了一个跨尺度的局部注意力块来有效地聚合局部特征,并设计了一种局部频率编码块来将位置编码与傅立叶域信息相结合,以构建高分辨率图像。为了进一步提高代表性,我们提出了一种级联LIT(CLIT),它利用多尺度特征,以及在训练过程中逐渐增加上采样尺度的累积训练策略。我们进行了广泛的实验来验证这些组成部分的有效性,并分析了各种训练策略。

2024-03-30 22:25:15 72

翻译 EfficientViT Memory Efficient Vision Transformer with Cascaded Group Attention

视觉Transformer因其高模型能力而取得了巨大成功。然而,其显著的性能伴随着沉重的计算成本,这使得它们不适用于实时应用。在本文中,我们提出了一系列名为EfficientViT的高速视觉Transformer模型。我们发现现有Transformer模型的速度通常受到内存效率低下操作的限制,特别是在多头自注意力机制(MHSA)中的张量重塑和逐元素函数。因此,我们设计了一种新的构建模块,采用了夹心布局。在高效的前馈神经网络(FFN)层之间使用单一的内存限制的MHSA,从而提高了内存效率并增强了通道通信。

2024-03-30 22:06:42 54

翻译 SwinIR Image Restoration Using Swin Transformer

SwinIR: Image Restoration Using Swin Transformer论文翻译

2023-09-23 11:00:46 107 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除