自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(50)
  • 资源 (3)
  • 收藏
  • 关注

原创 学习统一的Hyper - network用于多模态MR图像合成和缺失模态的肿瘤分割

引入额外的分类器,预测提取融合特征时每个模态是否可用,对抗性地迫使超编码器和融合块产生无法被分类器正确分类的融合特征,即保证提取到的融合特征再公共特征空间中。利用提取到的公共特征重建多模态MR,将特征和完整的模态MR图像合并,输入到分割网络来估计肿瘤标签。可以自适应地交互和融合从不同输入模态中提取的多模态特征。每个图节点对应每个模态的特征,节点数量动态适应可用模态的数量,边建模了每一对可用模态之间的联系。将模态补全作为正则化,将补全后的图像作为分割的输入,将补全过程中提取的共同特征作为额外的分割输入。

2024-03-06 15:51:16 1106

原创 基于图像合成和注意力的深度神经网络从计算机断层扫描灌注图像中自动分割缺血性脑卒中病变

最后,我们从合成的伪DWI中分割病变区域,其中分割网络基于可切换的归一化和通道校准,以获得更好的性能。实验结果表明,我们的框架在ISLES 2018挑战中获得了最高的性能,并且:(1)我们使用合成伪DWI的方法优于直接从灌注参数图中分割病变的方法;所提出的框架有可能改善缺血性中风的诊断和治疗,因为真正的DWI扫描有限。另一方面,由于L1范数平等地对待每个元素,而L2范数为可能由异常值引起的较大预测误差分配更高的权重(即,通过平方),因此L1范数比L2范数具有更高的鲁棒性(Ghosh等人,2017)。

2024-01-09 20:05:10 1458

原创 SESV:通过预测和纠错实现精确的医学图像分割

在CRAG、ISIC和IDRiD数据集上的实验结果表明,使用我们的SESV框架可以显著提高DeepLabv3+的准确性,并在腺细胞、皮肤病变和视网膜微动脉瘤的分割中实现高级性能。当分别使用PSPNet、U-Net和FPN作为分割网络时,也可以得出一致的结论。尽管深度卷积神经网络普遍存在并取得了成功,但仍需要改进,以产生足够准确和稳健的分割结果供临床使用。,然后将误差图与图像和分割掩模连接起来,作为重新分割网络的输入。首先,我们不使用预测的分割误差图来直接校正分割掩模,而是只。,而不是设计更准确的分割模型。

2024-01-06 10:06:02 1023

原创 基于随机颜色反转合成和双分支学习的单模态内镜息肉分割

在本文中,我们提出了一种新的翻译辅助分割网络(TASNet),用于单模态内窥镜图像的息肉分割。大量实验表明,在五个广泛使用的内窥镜图像数据集上,我们的框架比最先进的方法实现了更高的性能。使用物理方法生成一个能清晰观察到病灶的模态,再通过合成、分割联合框架学习与病灶相关的特征,以增强语义分割的效果,在五个内窥镜图像数据集上测试均有提升,可见这种方式可以增强内窥镜图像中病灶的分割。首先,息肉的外观,包括质地、大小、形状和颜色,随着不同类型和内镜摄像机角度的不断变化而有很大的差异。第三,内窥镜图像可能涉及。

2024-01-02 16:24:17 1011

原创 Syn_SegNet:用于常规 3T MRI 中超高场 7T MRI 合成和海马亚场分割的联合深度神经网络

为了确定最适合HS分割的合成MRI模式,我们比较了3种超高场MRI合成:7T T1 MRI、7T T2 MRI和7T T1 + T2 MRI (即同时合成7T T1 MRI和7T T2 MRI)。通过重点保留ROI内重要的结构和纹理信息,ROI损失增强了合成的7T MRI的质量,从而提高了HS分割的准确性。3T 图像的信号对比度和分辨率有限,因此在常规 3T MRI 中自动分割这些子场具有挑战性,本文旨利用超高场 7T MRI 合成来改善 3T MRI 中的海马亚场分割。输入是3T数据,合成7T数据。

2023-12-29 10:13:25 995

原创 一种改进的平衡生成对抗网络用于视网膜血管分割

相应地,D重新强调了不仅有大的血管主干,还有充满细节信息的难以捉摸的血管的重要性。在这种良好匹配的设置下,加强对抗训练,以迫使G生成更真实的血管分割图。框架新颖,虽然也对UNet进行了魔改,但是魔改UNet不是最主要的点,使用生成对抗网络分割,加权损失函数等,可能也只是为了论文好看,主要是框架新。然而,分割性能受难以捉摸的血管的影响很大,特别是在。文中称这种难以分割的区域为:Elusive vessel segmentation,难以捉摸的血管分割。将视网膜眼底图像作为输入,输出视网膜血管的血管概率图。

2023-12-26 21:27:19 1132 1

原创 具有置信度学习的困难感知注意力网络用于医学图像分割

生成器是增强的UNet,判别器是个FCN,传统的判别器只有下采样结构,得到的是分类结果,此处判别器是个编解码器结构,输出的和原分割图大小一样。即:判别器得到的是正确分割每个局部区域的置信度;判别器和生成器之间的不平衡,为了避免这种不平衡,我们在分析了判别器在生成对抗网络中的作用后,将对抗学习放松为置信学习。,在解码器路径( Merkow等2016)中注入3个尺度的深度监督,并提出通道注意力模块,以更好地融合低层和高层的级联信息(胡、申、孙)。X是输入,P是标签,ctaD是置信度网络的参数,S是分那个网络。

2023-12-26 16:14:38 997

原创 伪装目标检测的算术不确定性建模

CODNet将模型预测(Dir yini和Dir yref)和图像x的级联作为输入,以产生单通道置信度图,以及最终预测的cref,通过从伪装目标检测网络fθ(x)和地面实况伪装图y的预测导出的动态不确定性监督来监督估计的置信图。数据集:使用COD10K训练集[13]训练我们的模型,并在四个伪装物体检测测试集上进行测试,包括CAMO[28]、CHAELEON[45]、COD10K测试数据集[13]和NC4K数据集[33]。在我们的工作中,它代表了以输入图像为条件的预测的不确定性。和可靠的“任意不确定性”。

2023-12-23 15:59:32 1375 1

原创 用于从未配对的3D医学图像中进行多模式分割的统一生成对抗性网络

进行跨模态融合得到了最优的效果。

2023-12-22 17:00:07 897

原创 BEA-Net:用于医学图像分割的具有多尺度短期连接的Body and Edge感知网络

因此,我们首先通过步长为2和4的3×3卷积运算,将原始输入特征下采样为两个不同的低分辨率特征,以实现用于捕获粗略身体特征的大RF。然后,为了生成可用于详细说明身体特征生成的原始特征的身体位置权重图,我们提出了一种基于不同分辨率卷积特征的身体定位权重块。3) 与[33]、[34]等以前的大多数方法不同,这些方法只使用损失来利用主体和边缘信息,或者不设计独立的模块来提取边缘特征,如[25],在本研究中,除了使用主体和边缘监督损失,我们设计了相互独立的。MSSTC模块,它可以用来代替常用的3×3卷积层,以学习。

2023-12-21 16:28:19 1180

原创 基于3D-CGAN的跨模态MR脑肿瘤分割图像合成

研究从T1合成Flair图像是否有助于从T1的单一模态改进脑肿瘤分割,通过设计用于Flair图像合成的3D cGan和局部自适应融合,更好地描述合成Flair图像的细节。尽管这种凸组合会产生一些影响合成图像外观的伪影,但它被证明是改进分割的有效策略,而分割是我们的最终目标。最终目标,合成Flair图像以提高脑肿瘤的分割精度,与那些专注于提高PSNR的合成方法相比,对输出图像的质量提出了更高的要求。微调是至关重要的,因为对于给定的测试样本,用于分割的是合成的FLAIR图像,而不是真实的未知FLAIR图像。

2023-12-15 21:44:31 1331

原创 多模态图像配准中的跨模态注意

在过去的几年里,卷积神经网络(CNNs)已被证明在提取对医学图像配准至关重要的图像特征方面具有强大的功能。因此先进行自监督学习(对比学习)进行预训练,冻结预训练好的特征提取器,用于图像配准训练,在300轮之后,解冻特征提取器,对整个网络进行微调。在训练的早期阶段,提取的特征可能与图像配准任务无关,因此计算的注意力可能与配准不相关。然后,我们冻结预先训练的模块,以调整网络的其余部分。,该策略强制所提出的网络的特征提取器模块在对整个网络进行端到端训练之前,从两种模态的相应解剖区域学习相似的特征表示。

2023-12-15 19:22:34 1181 1

原创 基于互一致性学习的半监督医学图像分割

对所有的数据(有标签和无标签一起),计算三个解码器交叉的MSELoss,MSE(Yd1, Yd2锐化),MSE(Yd1, Yd3锐化),MSE(Yd2,Yd1锐化),MSE(Yd2, Yd3锐化),MSE(Yd3, Yd1锐化),MSE(Yd3, Yd2锐化)MSE(Yd1, Yd2锐化),MSE(Yd1, Yd3锐化),MSE(Yd2,Yd1锐化),MSE(Yd2, Yd3锐化),MSE(Yd3, Yd1锐化),MSE(Yd3, Yd2锐化)MC损失,就是用锐化前的和锐化后的一致性损失,来自不同解码器。

2023-12-07 21:13:07 1004

原创 TISS:使用级联双任务网络和误差预测一致性的脑肿瘤图像合成和分割

由于良好的低水平合成质量测量(如SSIM和PSNR)可能不一定会由于xt’ 和xt之间的高水平语义差距而导致高分割性能[32],我们引入了感知损失来鼓励用真实目标模态图像训练的分割模型在参数冻结的合成图像上保持高性能,这使得合成图像和真实目标模态具有相似的语义特征。与典型的合成后分割方法[39,5]相比,我们的框架是端到端训练的,因此合成和分割是自适应的,可以获得分割友结果。实验结果表明,与现有模态的直接分割相比,我们的TISS-Net大大提高了分割精度,并且它优于最先进的基于图像合成的分割方法。

2023-12-06 09:49:12 1003

原创 SDGAN:一种用于低剂量CT图像重建的新型空间可变形生成对抗性网络

受[19]中构象器的巨大成功的启发,我们还为生成器配备了几个构象器,它探索了每个切片的所有像素之间的局部和全局关系,从而产生了与注意力相关的潜在代码,并生成了具有不同细节的图像。生成器是CNN+Transformer,从消融实验看,加入参考文献19提供的Conformer Block有很大提升,双判别器从不同视图提供结构特征,可变形卷积利用切片间和切片内特征(2.5D思想),中间还加入了VGG16、19编码器提取特征进行判别。通过比较方法和我们的建议对真实和生成的F-PET图像之间的伪色差图进行比较。

2023-12-02 10:46:49 1063

原创 跨模态图像翻译:使用具有感知监督的多生成网络合成MR脑图像的CT图像

结构对准是跨模态图像生成的关键因素,先前的研究表明,成对的CT-MRI图像中的逐像素结构错位会导致重建失败。为了避免我们提出的模型中的过拟合和数据泄露,我们将数据集划分为来自10名患者的1366个CT/MR切片的训练集和来自15名患者的2050个CT/MR切片的测试集。为了解决未配对MRI-CT数据中MRI图像和CT图像的低结构一致性问题,我们提出的方法包括五个损失函数:风格传递损失、感知损失、循环损失、一致性损失和对抗性损失。与普通的循环一致性损失相比,联合目标函数对内容重建的体素保持了更高的保真度。

2023-12-01 20:18:37 1134

原创 基于GAN的多尺度门合并多模态MRI图像合成

从两个源模态合成目标模态为例,生成器将模态1和模态2都作为输入,通过多尺度的卷积块和融合模块生成逼真的合成目标模态。之后,以源输入和真实或合成目标模态作为输入组,鉴别器打算将伪组与真实组区分开来。为了保持这种特异性,有必要将每个模态逐一对应于一个独立的编码器,而不是简单地将它们堆叠作为输入。引入了门合并(GM)策略作为主要的集成机制,该策略能够针对不同模态的特征学习自动权重矩阵,从而增强相关信号并抑制噪声。然而,由于时间和成本的限制,患者的一些图像序列可能会丢失或损坏,这对准确诊断构成了障碍。

2023-11-30 15:46:44 1172

原创 Hi-Net:用于多模态MR图像合成的混合融合网络

最后,我们的Hi-Net将模态特定网络和融合网络相结合,以学习各种模态的潜在表示,并用于生成目标图像。,我们同时使用所有三种融合策略,然后将它们连接起来。为了实现这一目标,我们首先为每个单独的模态(例如,xi)构建一个模态特定网络。在多模态融合任务中,流行的策略包括逐元素求和、逐元素乘积和逐元素最大化。提取多个模态的特征,合成某一缺失模态,效果好于单模态生成缺失模态。实验充分,消融实验丰富,单纯拼接、MFF融合、早期融合、后期融合。MFB融合,自适应调整逐元素加、逐元素乘、最大之间的融合效果。

2023-11-30 14:14:20 1142

原创 CTA-GAN:基于生成对抗性网络的主动脉和颈动脉非集中CT血管造影 CT到增强CT的合成技术

输入是未配准的成对CT-SynCTA影像,先用CT影像生成SynCTA影像,再对SynCTA影像进行配准,再通过判别器,判别生成的影像和原始SynCTA影像。最终合成配准了的SynCTA影像。碘造影剂(ICAs)广泛用于CT血管造影术(CTA),可能会对人体产生不良影响,而且使用耗时且成本高昂。论文中对方法描述不对,以下是从源代码中简化的训练步骤伪代码。配准后的图像和源图像的L1 loss,对抗loss。并评价生成的效果很有意义。

2023-11-24 11:24:14 2250 4

原创 ET-Net:一种用于医学图像分割的通用边缘保持引导网络

在该块中,首先使用全局平均池来聚合输入的全局上下文信息,然后应用具有不同非线性激活函数的两个1×1卷积层,即ReLU和Sigmoid,来估计层相关性并生成沿信道维度的权重。视网膜图像中的视盘和视杯分割:我们评估了我们在视网膜图像中视盘和视杯分割的方法,这是青光眼检测中的一项常见任务。为了适应对象的形状和大小变化,现有的方法倾向于总结沿通道维度的多尺度输出,以进行最终预测(例如,[5,19])。在四个分割任务(即视网膜图像中的视盘/杯和血管分割,以及胸部X射线和CT图像中的肺部分割)上的实验结果表明,保。

2023-11-24 08:52:39 1146

原创 EPT-Net:用于3D医学图像分割的边缘感知转换器

接下来,MultiAtlas Labeling Beyond the Cranial Vault包含13个腹部器官的标签,包括脾脏(spl)、左右肾(L-K和R-K)、胆囊(gal)、食道(eso)、肝脏(liv)和胃(sto)、主动脉(aor)、下腔静脉(I-V-C)、门静脉和脾静脉(P-V/S-V)、胰腺(pan)、左右肾上腺(R-A-G和L-A-G),由两名经验丰富的大学生和放射科医生手工标记。经过经验丰富的专家重新标记,我们对四个腹部器官进行了精细标记,包括肝、脾、右肾和左肾。

2023-11-23 20:48:41 1738 1

原创 TransFusionNet:JetsonTX2下肝肿瘤和血管分割的语义和空间特征融合框架

然后,我们将它们与。

2023-11-23 09:02:48 581 2

原创 BTS-GAN:基于MRI和条件对抗性网络的乳腺肿瘤计算机辅助分割系统

RIDER(用于评估治疗反应的参考图像数据库)该数据集包括对不同患者的DCE-MRI扫描,并进行了地面实况分割。在第二个分支中,基本的3×3卷积和速率为2的扩张卷积依次级联。医生对核磁共振扫描的评估是耗时的,需要大量的人力和专业知识。假设“A”是我们的源图像,“B”是我们在分割问题中的基本事实(二进制掩码)。(2)PDC模块用于利用图像的多尺度和上下文信息,在不降低特征图分辨率的情况下,以不同的扩张率不断扩展感受野,(4)我们的分割方法在公共数据集上取得了比U-Net更好的性能,并改进了U-Net。

2023-11-22 19:41:04 592

原创 EANet:用于医学图像分割的迭代边缘注意力网络

包括结构边界的模糊性、形状的复杂性和纹理的异质性,这仍然是一项具有挑战性的任务。为了全面应对这些挑战,我们提出了一种新的、有效的迭代边缘注意力网络(EANet),用于医学图像分割,步骤如下。输入是编码器的四个特征图,1x1卷积改变维度之后从低到高逐层细化,Residual Block提取特征,Gated Conv特征筛选,最后1x1卷积提取边界特征。在瓶颈层加入DSC模块,由不同空洞率的空洞卷积和DFS组成,DFS提供注意力。空洞卷积用于捕获多尺度特征,DFS特征动态选择,由于相邻尺度之间的相关性。

2023-11-21 19:54:43 702 1

原创 CKD TransBTS:用于脑肿瘤分割的具有模态相关交叉注意的临床知识驱动混合转换器

T2加权成像用于检测游离水。在脑肿瘤中,T2加权和T2FLAIR图像通常被。

2023-11-21 16:42:41 272

原创 多模式脑肿瘤MRI分割中的视觉变换器:综述

脑肿瘤可分为四类,即神经胶质瘤、脑膜瘤、垂体瘤和神经鞘瘤。其中,神经胶质瘤是最常见的原发性脑肿瘤,目前提到的脑肿瘤通常指神经胶质瘤,它起源于构成大脑支持组织的细胞,即神经胶质细胞一般来说,脑肿瘤的位置、形状和大小对医生诊断的这些症状的程度和性质以及制定治疗和手术计划都有重大影响。自动化分割重要脑肿瘤区域通常可以定义为三类亚区,包括增强型肿瘤(ET)、肿瘤核心(TC:增强型肿瘤、坏死和非增强型肿瘤)、全肿瘤(WT:瘤周水肿、增强型肿瘤和非增强性肿瘤和坏死)T1加权。

2023-11-18 15:44:10 171

原创 RAAGR2-Net:一种使用多个空间帧的并行处理的脑肿瘤分割网络

当前技术的缺点是,在编码过程中提取特征图的过程导致数据位置信息的丢失,这导致性能降低。现有技术的另一个缺点是,随着模型变得更大,在训练模型的过程中,参数增加,批量大小减小,导致性能下降。此外,在卷积层中使用了深度可分离的Conv2D,而不是使用通用的Conv2D,通过在很大程度上减少参数数量来提高学习速度,从而最大限度地减小批量大小。此外,由于参数限制和计算复杂性,仍有改进的空间。为了解决这个问题,可以看出,与N3正则化相比,该系统的性能有所提高,方法是减少样条的距离,以多分辨率对其进行并行化,并使用。

2023-11-17 20:51:58 62

原创 DPAFNet:一种用于多模式脑肿瘤分割的残差双路径注意力融合卷积神经网络

通过不同膨胀率的膨胀卷积将输入特征迭代连接到特征图中,并使用1×1×1卷积将通道数量减少到与输入特征相同,从而融合局部和全局上下文信息,合并多尺度特征,并捕获丰富的全局表示。此外,IDCM模块使用不同膨胀率的膨胀卷积来获得不同尺度的特征,以有效扩展卷积核的感受野,提高模型对不同尺度目标的识别能力。然而,当膨胀率的值较大时,提取特征时会出现网格效应,这将失去上下文信息的连续性,降低像素级任务的分割效果。仍然难分割,BraTs2019中肿瘤仅占图像的1.5%,ET仅占WT的11%,1,2,4之间的边界模糊。

2023-11-17 19:38:35 418

原创 一种用于脑肿瘤和组织分割的具有体积特征对齐的三维跨模态特征交互网络

为了在分割网络中构建图结构,一种常见的方法是。由于每个模态对内的图像信息是一致的,而不同模态对之间的信息是不同的和互补的[11],[44],因此模态对分组操作用于显著降低多个分支的计算成本,并有效地学习CMFI模块中的多模态信息。FIGR通过两个1x1x1卷积得到两个不同通道数的特征图,转置相乘,得到c/2 x c/4大小的特征,再构建c/2 x c/4的图,对刚开始得到的特征加权,再卷积得到加权特征,然后残差连接。,先对模态分组,计算注意力,对每组的特征进行加权,残差连接,两组特征和原始特征拼接融合;

2023-11-16 10:08:42 99

原创 基于不确定性感知的脑肿瘤分割多维互学习

认为2D,2.5D,3D网络可以学到互补信息,利用三个网络联合训练相互学习,为了防止往都不好的方向训练,加入了不确定性,在推理的时候对三个网络进行加权求和。例如,如果2D-CNN在某些区域中有错误的预测,则相互学习将这些错误传递给3D-CNN和2.5D-CNN,最终导致不稳定的训练。Os,Op,Ov是2D,2.5D,3D得到的分割图,分割图应该是一致的,用MSE损失相互监督。该框架建立在三维模型(即2D-CNN、2.5D-CNN和3D-CNN)的基础上,并在关于。本文用2D,2.5D,3D并行以及。

2023-11-15 19:58:26 71 1

原创 OTSU和K-means聚类在同态变换中的有效脑肿瘤分割

该方法研究了不同变换域对脑肿瘤区域定位的影响,以提高OTSU分割和K-means聚类分割方法的性能。这引入了对输入图像的更好的分析和对分割区域的更好的特征提取。**基于自适应直方图均衡实现了另一个附加阶段,以在分割过程之前增强输入图像的对比度。这提高了分割系统的整体性能。**实现结果表明,在所有变换域中,分割算法的性能、准确性和精度都有很高的提高。仿真结果表明,在竞争激烈的处理时间内,同态变换以最高的精度、精度和特异度值获得了最佳的分割性能,使该方法适用于实时应用。

2023-11-14 21:39:55 95

原创 边缘 U-Net:基于具有边界信息的深度 U-Net 模型,使用 MRI 进行脑肿瘤分割

表2显示了数据集的三种类型的肿瘤的分布。文中没说边界输入是通过哪种方式提取的边缘,应该是Sobel或者Canny,用边缘特征给原图影像特征加权融合,融合后的特征以及边缘特征跳跃连接到解码器。开发用于对象分割的最合适的能量函数的主要目标是将能量函数的值降低到实现精确分割所需的最低水平。编码器和解码器的同一级别层之间的跳过连接使得能够将来自编码器网络的特征图与上采样的特征图级联,该特征图起到。为了评估脑肿瘤分割的稳健性,将所提出的模型(Edge U-Net)的性能与一般最先进的模型的性能进行了比较。

2023-11-14 20:34:41 1151 1

原创 MimicNet:模拟人类专家手动勾画从多模态MRI中分割脑肿瘤

FGMA是个特征融合模块,输入时两个特征图 Xind、Xg,Xind分成4个特征图分别是4个模态,利用融合后的特征图Xg和每个Xi加权融合得到Si,Si和Xi相乘得到Xi’,把Xi’和Xg再用相同的方式通过全局注意力计算全局注意力特征Xi’‘,最后一个残差连接,把原始Xind与经过两次注意力的Xi’'进行残差连接得到Xfuse。因此,采用课程,按照WT、TC和ET的顺序训练任务。利用WT、TC、ET的分割顺序,分割难度,优先分割WT,用分割WT的知识引导分割TC,再用分割TC的知识引导分割ET。

2023-11-13 21:57:18 151

原创 Gradient-assisted deep model for brain tumor segmentation by multi-modality MRI volumes

在我们的编码器-解码器模型中,由 D-ConvD 模块组成的编码器用于从多模态 MRI 中提取丰富的特征。该方法考虑脑肿瘤侵袭导致的边界复杂多变,设计了一种梯度驱动的译码器,为译码器提供标记的梯度信息,从而提高了多类别分割的准确性。我们使用基本的卷积来形成梯度提取分支。WT和TC的边缘都提取出来,边缘图是一个二分类的,和以往直接把所有类别的边缘提取出来不同,这里只提取WT和TC而且没有把两个标签都置为1,可能一个1一个2。梯度损失,BCEloss的3D延伸,M表示所提方法中使用的梯度类别,包括WT和TC。

2023-11-13 15:25:48 73

原创 Edge-aware U-net with gated convolution for retinal vessel segmentation

与前两种方法不同,边缘门控流的输出是逐步下采样的。其次,边缘下采样流从边缘结果中提取边缘特征,并将其反馈到语义分割流解码器路径中,以细化分割结果。使用语义分割流编码器的每一层特征提取边缘特征,边缘特征图和边缘图计算二元交叉熵Le,把最后输出的边缘特征经过逐层下采样拼接到语义分割流的解码器上。解码器路径还集成了从边缘下采样流获得的边缘特征,然后将结果与来自编码器路径的相应特征图连接起来,这实现了更准确的分割结果,特别是小血管的边缘。,但不同的是,我们的网络训练是分步骤进行的,而不是并行进行的。

2023-11-11 15:48:50 100 2

原创 Multi-stage context refinement network for semantic segmentation

精细数据集包含来自 50 个不同城市的 5,000 张图像、训练数据集中的 2,979 张图像、验证数据集中的 500 张图像以及测试数据集中的 1,525 张图像。将高分辨率上下文特征和低分辨率上下文特征进行融合,以尽可能减少两者的特征排斥反应,并整合不同阶段的特征,融合结构如图4 Flow Fusion的子图所示。其次,使用 3 3 卷积和 3 3 展开卷积对 Conv [43]-BN [41]-ReLU [42] 处理的全局特征图进行细化,并进行简单的批量归一化 (BN) 和 ReLu 运算。

2023-11-11 14:58:13 112 2

原创 基于注意力机制的多尺度轻量级3D分割算法:脑肿瘤图像分割

作者没有分析原因,代码中最后把4,128,128,128维度的输出拆分出来,s1,s2,s3是WT,TC和ET。也就是说,TC还是用的原来的,WT和ET用的是加权后的。此外,对于3D脑肿瘤分割,目前的深度架构,尤其是那些使用3D卷积的架构,总是具有。数据集:BraTs18,19,20,裁剪到128 128 128,轴向、冠状面、矢状面应用随机轴镜像翻转p=0.5,【-10,10】范围内应用随机旋转,155扩展到160。同时,在提取透视层面时,网络结构是不对称的,从而赋予了模型更大的灵活性。

2023-11-10 21:10:12 591 1

原创 Boundary-Aware Network for Abdominal Multi-Organ Segmentation

数据:AMOS数据集包含500个CT和100个MRI扫描,其中包含15个腹部器官的体素水平注释,包括脾脏、右肾、左肾、胆囊、食道、肝脏、胃、主动脉、下腔静脉、胰腺、右肾上腺、左肾上腺、十二指肠、膀胱和前列腺/子宫。在所有扫描中,200个CT和40个MRI扫描被提供作为训练案例,100个CT和20个MRI扫描用于在线验证,剩下的200个CT或40个MRI被保留以进行最终评估。由于腹部器官的大小不同以及它们之间的边界不明确,准确分割腹部器官仍然具有挑战性。

2023-11-09 21:10:09 95 1

原创 高级视觉任务循环中的图像融合:语义感知的实时红外和可见光图像融合网络

然而,在图像融合领域,很难提供融合图像的真值来训练高级视觉任务模型。然后,利用语义损失通过反向传播来指导融合网络的训练,迫使融合图像包含更多的语义信息。融合和分割同时进行,共同优化,让融合的结果更有利于下游任务,在融合网络中加入了Sobel卷积,提取细粒度信息。融合网络是个轻量化的,层数很少,创新点在于用选择 Sobel 算子作为梯度算子,提取特征图的细粒度细节信息。为应对此挑战,开发了图像融合与高级视觉任务之间的差距,提出,为此,我们构建了一个语义损失,以反映融合图像对高级视觉任务的贡献程度。

2023-11-09 16:17:42 334 2

原创 Brain tumor segmentation based on the fusion of deep semantics and edge information in multimodal MR

语义特征编码器(Swin Transformer 改进了分patch的方式),边缘特征编码器(Sobel卷积,渐进式特征提取增强),特征融合模块(语义特征和边缘特征融合,图卷积);直接使用最后一个卷积块的特征会迫使深度网络捕获浅层边缘特征,从而影响边缘特征的提取性能。将输入特征从空间域映射到图域,具有相似特征的像素可以居合道一个节点中,生成语义感知的图特征。,在输入之前嵌入更多的空间信息,增加Transformer的局部感应能力,在patch分区之前。,seg+edge,结构一样,输入不一样。

2023-11-08 17:19:49 668 3

CDDFuse: Correlation-Driven Dual-Branch 论文

CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion

2023-10-31

RFNet: Region-aware Fusion 论文

RFNet: Region-aware Fusion Network for Incomplete Multi-modal Brain Tumor Segmentation

2023-10-31

M2FTrans 对应代码

M2FT rans: Modality-Masked Fusion T ransformer for Incomplete Multi-Modality Brain T umor Segmentati 用于多模态融合分割

2023-10-31

CDDFuse对应代码

CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion 对应代码,用于多模态融合

2023-10-31

SuperFusion: 对应代码

SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness 代码资源

2023-10-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除