自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

呆呆的猫的博客

计算机视觉算法和应用

  • 博客(6)
  • 资源 (6)
  • 收藏
  • 关注

原创 【Transformer】15、PoolFormer: MetaFormer is Actually What You Need for Vision

文章目录一、背景论文链接:https://arxiv.org/pdf/2111.11418.pdf代码链接:https://github.com/sail-sg/poolformer一、背景Transformer 最近在计算机视觉任务上展示了很好的效果,大家基本上都认为这种成功来源于基于 self-attention 的结构。但又有文章证明,只使用 MLP 也能达到很好的效果,所以作者假设 Transformer 的效果来源于 transformer 的结构,而非将 token 进行融合交互的模

2021-11-29 17:10:40 3769 2

原创 【Transformer】14、Are Transformers More Robust Than CNNs?

文章目录一、背景二、动机三、方法四、结论本文收录于 NIPS 2021一、背景CNN 被广泛用于计算机视觉任务中,其成功的主要原因在于 “卷积” 这一操作,“卷积” 能够引入一定的归纳偏置,如平移不变性等。最近,未使用卷积的 vision transformer 结构在计算机视觉领域也取得了很大的成功,ViT 主要使用自注意力机制,来实现特征提取。二、动机有一些学者提出,Transformer 比 CNN 更加鲁棒,但作者认为他们的结论仅仅来源于现有的实验,两者并没有被放到相同的体量下来对比。

2021-11-22 14:34:46 2111

原创 【Transformer】13、Augmented Shortcuts for Vision Transformers

文章目录一、背景二、动机三、方法3.1 增强残差连接3.2 使用循环映射进行高效实现四、效果论文链接:https://arxiv.org/abs/2106.15941代码链接:未开源一、背景Transformer 已经在计算机视觉领域的某些任务上取得了超越 CNN 的效果。在 Transformer 的结构中,self-attention 和 MLP 模块前后通常会使用残差连接。残差连接最初是在 CNN 的结构中提出,用来缓解梯度消失问题。二、动机有些文章指出,没有残差连接的结构的网络效果很差

2021-11-17 19:42:05 1025

原创 【Transformer】12、Do Vision Transformers See Like Convolutional Neural Networks?

文章目录一、背景二、方法论文链接:https://arxiv.org/pdf/2108.08810.pdf一、背景Transformer 现在在视觉方面取得了超越 CNN 的效果,所以作者就有一个问题:Transformer 是如何处理视觉的相关任务的呢?基于此,作者对 ViT 和 CNN 在分类任务上进行了一系列分析,发现两者有着很大的不同。ViT 在所有层上都有更一致的表达特征,而造成这一现象的原因在于 self-attention,self-attention 能够在浅层就聚合全局特征。

2021-11-10 14:28:57 2646 2

原创 【Transformer】11、DPT: Vision Transformer for Dense Prediction

文章目录一、背景和动机二、方法2.1 Transformer encoder2.2 Convolutional decoder2.3 处理不同输入大小三、效果3.1 单目深度估计3.2 语义分割论文链接:https://arxiv.org/pdf/2103.13413.pdf代码链接:https://github.com/intel-isl/DPT一、背景和动机现有的密集预测模型大都是基于卷积神经网络的模型,基本上都把网络分为两部分:encoder:也就是 backbonedecoder:

2021-11-09 14:46:58 4614 1

原创 【Transformer】10、HRFormer:High-Resolution Transformer for Dense Prediction

文章目录一、背景二、动机三、方法四、效果论文链接:https://arxiv.org/abs/2110.09408代码链接:https://github.com/HRNet/HRFormer一、背景ViT 的提出让人们看到了 Transformer 在 图像分类任务上的潜力,紧随其后还有很多相关的改进,如知识蒸馏、更深的网络结构、引入卷积等方法,但 ViT 及其类似的方法都缺失了局部空间的信息,难以用于密集预测。还有一些方法聚焦在了使用 Transformer 来实现分割、检测等密集预测任务。二、

2021-11-08 11:02:30 1226

架构设计1、任务调度系统:distributer、worker、tasks

任务调度系统时序图

2024-03-31

codelldb-x86-64-linux.vsix 下载,用于vscode 的LLDB 插件,用来debug调试 vscode

codelldb-x86_64-linux.vsix 下载,用于vscode 的LLDB 插件,用来debug调试 vscode,包括cpp、go、rust、c等语言

2022-11-14

assets的sample_sounds静态资源中的若干wav文件

导入assets,的sample_sounds静态资源中的若干wav文件,如65_cjipie.wav,66_indios.wav,。。。,86_oa-h.wav,让BeatBox项目运行起来

2022-09-11

vscode codelldb mac版本--codelldb-x86_64-darwin.vsix--下载后VISX离线安装

vscode, 如果需要debug调试, 需要codelldb插件才可以 然而因为网络原因经常下载不下来 下载后先unzip解压, 再在vscode离线用VISX方式离线安装即可

2022-08-24

kth-tips灰度纹理数据集

KTH-TIPS纹理灰度数据集,可以直接用于matlab图像分类

2018-12-21

Mnist手写体数据集

mnist手写体数据集,包含训练集和测试集共7w张,可直接用于matlab的图像分类

2018-12-21

cifar100的matlab版本

cifar100的mat文件,包含训练集、测试集和meta数据,用来做物体识别和分类的经典数据集

2018-08-09

Matlab的cifar-10.mat文件,可以直接用

cifar10.mat,包含batches.meta.mat,data_batch_1~5.mat,基test_batch

2018-08-09

Matlab的AR.mat文件,可以直接用

AR人脸数据经常用到的是其中的一个子集共100个人,50男50女。 AR人脸数据库的组成:两个阶段,每个阶段13个图片,7个表情和光照变化,3个墨镜3个围巾

2018-08-09

caltech101数据集

本数据集是caltech101数据集压缩包,完整有效,是深度学习用于图像分类的经典数据集。

2018-08-09

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除