- 博客(5)
- 收藏
- 关注
原创 2021/7
29.Transformer Network for Significant Stenosis Detection in CCTA of Coronary ArteriesMotivation: 引起冠心病的冠状动脉斑块的复杂性使得冠状动脉造影(CCTA)中冠状动脉狭窄的自动检测成为一项困难的任务.已有的RNN方法虽然能够在一定程度上捕捉单个方向上语义特征之间的依赖关系,但很少考虑冠状动脉分支的全局干预来检测冠状动脉狭窄。为了确保模型能够在检测到局部冠状动脉狭窄之前学习整个冠状动脉分...
2021-08-13 14:38:24 524
原创 2021.7
11.MSG-Transformer: Exchanging Local Spatial Information by Manipulating Messenger TokensMotiviton: 将vision transformer应用于下游任务,需要解决两个关键问题,即涉及层次分辨率以捕捉精细的多尺度特征和降低全局注意力计算带来的成本。PVT提出在多分辨率阶段下处理特征,并对K和V特征进行下采样,以降低计算成本。Swin -T提出在局部窗口中计算注意力。我们新提出...
2021-07-18 15:11:30 1400
原创 2021.6月
1.An Image Is Worth 16X16 Words: Transformers for Image Recognition at Scale 本文章不同于以往工作的地方,就是尽可能地将NLP领域的transformer不作修改地搬到CV领域来,提出一种方式将图像这种三维数据转化为序列化的数据。文章中,图像被切割成一个个patch,这些patch按照一定的顺序排列,就成了序列化的数据. Model Overviewa.将图像转化为序列化数据...
2021-06-12 00:02:14 1333 3
原创 2——
2.Pyramid Medical Transformer for Medical Image Segmentation(PMTrans)现有的技术背景及其局限:深度卷积体系结构缺乏对图像中的远程依赖关系的把握。 MDT轴向注意在图像全局进行建模,仍然存在不必要的计算成本且分割图像方法固定,很难适应多形状对象.探索解决方案:基于 Transformer 的体系结构利用自我注意机制,编码长期依赖关系,并具有极富表现力的表示法. 我们提出了金字塔型网络架构即PMTrans来集成多尺度注意力和C
2021-05-15 14:49:04 2209
原创 Medical Transformer: Gated Axial-Attention for Medical Image Segmentation
Medical Transformer: Gated Axial-Attention for Medical Image Segmentation现有的技术背景及其局限:深度卷积体系结构缺乏对图像中的远程依赖关系的把握。 用于医学成像的数据样本数量相对较少,使得有效训练用于医学得transformer变得困难。探索解决方案:基于 Transformer 的体系结构利用自我注意机制,编码长期依赖关系,并具有极富表现力的表示法. ...
2021-05-14 15:48:03 656
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人