自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 资源 (1)
  • 问答 (1)
  • 收藏
  • 关注

原创 Cross-Layer Distillation with Semantic Calibration--带有语义校准的跨层蒸馏

知识蒸馏是一种通过利用教师模型的输出来增强学生模型泛化能力的技术。最近,基于特征图的变体探索了中间层中手动分配的师生对之间的知识转移,以进一步改进。然而,不同神经网络中的层语义可能不同,人工层关联中的语义失配将导致由于负正则化而导致性能退化。SemCKD),它通过注意力机制为每个学生层自动分配教师模型的适当目标层。

2022-12-06 11:26:47 1497 1

翻译 IntraTomo:基于自监督学习的基于正弦图合成和预测的断层扫描

断层扫描技术对扫描对象从不同角度的一组投影进行操作。应用重建算法从这些投影中检索表示对象的密度场。在数学上,重建过程是一个逆问题,其中 Nv 个未知数(表示对象的像素数/体素数)使用 Nθ ×Np 已知参数(投影数乘以每个投影的像素数)计算。理想情况下,采集过程提供了大量在角空间上均匀采样的投影。然后就说有限角和稀疏视图这两种情况说明了断层扫描问题变得高度不适定和不确定的示例。前人从两方面入手解决。一个是基于模型的优化方法,一个是深度学习方法。

2022-09-11 17:51:45 630 2

原创 IDR:通过迭代数据细化的自我监督图像去噪

本文是CVPR2022的新论文,因与我的研究方向不是紧密相关,所以不看前两节,直接上方法!有一说一,这个方法确实是一条从未设想的道路,有点类似于GAN的思想但又完全不同!

2022-05-17 17:17:54 2811

原创 DuDoDR-Net:双域的同时解决稀疏视图和金属伪影的网络

前人分别研究了稀疏视图和金属伪影的清晰重建。但两者并不能直接统合,相互存在条件独立,为此,作者研究如何同时实现两者。

2022-05-17 10:36:42 968

原创 X-volution: On the Unification of Convolution and Self-attention卷积与自注意力的相辅相成

卷积和自注意力是深度神经网络中的两个基本组成部分,前者以线性方式提取局部图像特征,而后者非局部编码高阶上下文关系。但是由于结构上的不同,缺乏在单个计算模块中同时应用这两种操作的方法。在这项工作中,作者从理论上推导出了一个全局自注意力近似方案,该方案通过对变换特征的卷积运算来近似自注意力。基于近似方案,我们建立了一个由卷积和自注意力操作组成的多分支基本模块,能够统一局部和非局部特征交互。

2022-05-10 10:58:25 592

原创 DRONE:用于稀疏视图 CT 重建的双域残差优化网络--阅读笔记

DRONE: Dual-domain Residual-based Optimization NEtwork for Sparse-view CT Reconstruction https://sci-hub.se/10.1109/TMI.2021.3078067摘要在本文中,我们提出了一种基于残差的双域优化网络(DRONE)。 DRONE 由三个模块组成,分别用于嵌入、细化和感知。在嵌入模块中,首先扩展了一个稀疏的正弦图。然后,图像域网络有效地抑制了稀疏视图伪影。之后,细化模块侧重于协同恢复残差数

2022-05-06 16:14:35 1609 1

原创 有限视图(Limited View)断层重建--CasRedSCAN论文阅读

摘要有限视图断层重建旨在从减少辐射剂量或缩短扫描时间的稀疏视图或有限角度采集产生的有限数量的投影视图重建断层图像。然而,由于正弦图的不完整性,这种重建会出现严重的伪影。过去有人用深度学习的方法从有限的视图数据中直接预测全视图重建,但是重建出来的图像于原始正弦数据的一致性无法保证。于是本文提出了:级联的剩余密集空间通道注意网络,由剩余密集空间通道注意网络和投影数据保真层组成。

2022-05-05 11:00:21 523

原创 2021AAPM大赛第一名技术报告Designing an Iterative Network for Fanbeam-CTwith Unknown Geometry 阅读笔记

什么是第一名的含金量呢?本文提出的方法的RMSE直接领先最前沿方法一个数量级!

2022-04-26 21:00:57 2988 1

原创 Artifact and Detail Attention Generative AdversarialNetworks for Low-Dose CT Denoising阅读笔记

共同学习2021年顶级期刊TMI的低剂量CT去噪文章,作者提出了新颖的多通道区别训练的生成器,通过对去噪问题最核心的两个节点的重点关注,取得了极好的去噪效果!

2022-04-22 15:30:47 4108 1

转载 压缩感知学习笔记

参考博文:形象易懂讲解算法II——压缩感知 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/22445302一、什么是压缩感知(compressed sampling)?compressed sampling(后文称作CS)是一种针对于信号采样的技术,它通过一些方法,实现了“压缩的采样” ,准确说是在采样过程中完成了数据压缩的过程。首先从信号采样的知识入手:1. 我们知道,将模拟信号转换为计算机能够处理的数字信号,必然要经过采样的过程...

2022-04-21 11:09:41 825

原创 ADN: Artifact Disentanglement Network forUnsupervised Metal Artifact Reduction--无监督的CT重建

本文提出了第一个无监督的金属伪影去除方法,具体地说,它引入了一种新的伪影解缠网络,该网络将金属伪影从潜伏空间的CT图像中解缠。它支持不同形式的生成(伪影减少、伪影转移和自我重建等)。该模型实现了比现有的监督模型等效的结果,并且比它们的泛化能力更强。介绍成对的带有金属伪影和不带有金属伪影的图像在实际中是很难获取的,于是大多数的监督方法都是求助于人工合成的带有伪影的图像来进行训练,然而,由于金属伪影的复杂性和CT设备的变化,合成的伪影可能无法准确地再现真实的临床场景,并且这些监督...

2022-04-19 16:06:18 3886

原创 Eformer: Edge Enhancement based Transformer for Medical ImageDenoising--用于医学图像去噪的基于边缘增强的 Transformer

作者在摘要中提到,Eformer使用了用于医学图像去噪的 Transformer block构建Encoder-Decoder Net。Transformer block中使用了基于非重叠窗口的自注意力,这可以降低计算要求;结合了可学习的 Sobel-Feldman 算子用以增强图像边缘,并配套了有效的方法将它们连接到架构的中间层。在AAPM数据集上实现了43.487 PSNR、0.0067 RMSE 和 0.9861 SSIM的成绩。介绍作者提到他们的想法受益于ViT的 patch.

2022-04-17 09:50:32 2396 4

原创 TED-net: Convolution-free T2T-ViT-based Encoder-decoder Dilation network 阅读笔记(小关键点记录)

笔者的研究方向即为低剂量CT去噪,这篇论文可以说是transformer在该领域的一次重要应用,欢迎大家在评论区一起讨论学习。本文提出了一种基于无卷积T2T-ViT的编码器-解码器膨胀网络(TED-net),以丰富LDCT去噪算法家族。该模型没有卷积块,由一个带唯一transformer的对称编解码块组成。PS:前置论文可以参考笔者的前两篇阅读笔记,包括:ViT、T2T-ViT。介绍作者在这部分并没有展示他的创新点,只是针对前人的优势和不足之处做了分析说明,在此不再赘述。方法 .

2022-04-15 15:04:04 2292 3

原创 Tokens-to-Token ViT: Training Vision Transformers from Scratch on ImageNet阅读笔记(小关键点记录)

摘要作者开篇首先指出了ViT的不足:在中小型数据集上的效果不如CNNs,并分析原因:1. 输入图像通过硬分割的简单词语切分未能对相邻像素之间的边缘和线条等重要局部结构进行建模,导致训练样本效率低;2. ViT的冗余注意力主干设计导致固定计算预算和有限训练样本的特征丰富度有限。基于此,作者提出了他的模型 -- Tokens-To-Token Vi-sion Transformer (T2T-ViT)可以直接在imgNET上有比resNet更好的效果,主要变换...

2022-04-15 09:35:43 2799

原创 TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE阅读笔记(小关键点记录)

介绍transformer在自然语言处理领域取得了很大成功并且衍生出了诸多变体;在视觉方面虽然有前人尝试,但大多只是与Cnn相结合;其中一些完全取代了卷积,但由于使用了专门的注意力模式,尚未在现代硬件加速器上有效地扩展。作者受 NLP 中 Transformer 拓展成功的启发,尝试将标准 Transformer 直接应用于图像,并尽可能减少修改。为此,他将图像拆分为块,并提供这些块的线性嵌入序列作为 Transformer 的输入。图像块的处理方式与 NLP 应用...

2022-04-13 20:58:19 1174

原创 用于低剂量 CT 去噪的结构敏感多尺度深度神经网络-阅读笔记

WGAN+S(结构敏感)+M(多尺度)+3D = SMGAN 结构敏感损失 = 对抗性损失 + 感知有利损失结构 + 逐像素L1损失 主要创新点: 采用3DConv的CNN作为生成器 采用2中的混合损失 对2D和3D的差异做了两个方面的评估 CT噪声被认为是 泊松量子噪声 + 高斯电子噪声 不同损失优劣对比: L2损失可以有效地抑制背景噪声,但它会使去噪结果不自然和模糊。这是可以预期的,因为它具有回归均值的性质。此外,L2 损失假设背景噪声是高斯白噪声,它独立于局部图像特征...

2022-04-06 16:01:08 1601

原创 回溯法(深度优先法)速解

算法核心思想:能进就进,更换次之,回退为下。

2019-03-16 08:41:05 572

2021AAPM大赛第一名Designing an Iterative Network 注释版

内容概要:针对之前我发布的博文:2021AAPM大赛第一名技术报告Designing an Iterative Network for Fanbeam-CTwith Unknown Geometry 阅读笔记 的代码,再经过仔细的阅读后将自己的感悟与思考加入注释中,供各位读者参考。 适合人群:对图像重建领域感兴趣或专业研究者适用,需要具备一定的图像重建知识储备,拥有一定研究经验,了解重建过程。 能学到什么:代码中不仅可以帮助读者真正的领悟论文核心要义,还用代码的方式呈现了radon和FBP的详细过程,读者可以选择性的学习。 阅读建议,配合我的博文食用,一定要先明白个大概过程再看,阅读顺序的话,看完论文就知道了,参考readme文件。

2022-05-10

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除