![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
医学图像处理
文章平均质量分 89
Cierlly
继续搞啊!
展开
-
zotero 下载 +使用 + 小技巧
前言Zotero 是一个非常不错的文献管理工具,主要作用就是可以非常方便的显示所有的文献,并且可以很方便的做笔记。下载非常简单, 官网下载就可以了. 然后在官网是进行注册,左上角有register配置Zotero进入程序之后在【编辑-首选项-同步】相关的地方填入账号密码就可以同步了、搜索设置(PDF索引)这个设置非常重要,因为Zotero有个很强大的功能,可以在直接拖入PDF后,右键对其进行条目的自动创建(重新抓去PDF的元数据),尽管对某些来源的PDF并不是很好的支持,但也会方便很多。这个原创 2022-02-27 20:43:04 · 3215 阅读 · 0 评论 -
LeViT: aVision Transformer in ConvNet‘s Clothing for Fast in
摘要我们设计了一系列图像分类架构,可以在高速模式下优化精度和效率之间的平衡。我们的工作利用了基于注意力的体系结构的最新发现,这种体系结构在高度并行处理硬件上具有竞争力。我们重温了大量文献中关于卷积神经网络的原理,并将其用于transformer,特别是分辨率不断降低的激活图。我们还引出了注意力的偏置bias。这是一种在vision transformer整合位置信息的新方法。因此,我们提出LeViT:一种用于快速推理图像分类的混合神经网络。我们在不同的硬件平台上考虑不同的效率度量,以便更好地反映广泛的应原创 2021-05-30 09:35:20 · 620 阅读 · 3 评论 -
Transformer image recongnition
摘要虽然Transformer架构已经成为自然语言处理任务的事实标准,但它在计算机视觉方面的应用仍然有限。在视觉上,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持它们的整体结构不变。我们表明,这种对神经网络的依赖是不必要的,直接应用于图像块序列的纯转换器可以很好地执行图像分类任务。当对大量数据进行预先培训并转移到多个中型或小型图像识别基准(ImageNet、CIFAR-100、VTAB等)时。),与最先进的卷积网络相比,视觉转换器(ViT)获得了出色的结果,同时需要更少的计算资源来原创 2021-05-27 11:41:09 · 471 阅读 · 0 评论 -
Medical Transformer: Gated Axial-Attention for Medical Image Segmentation
摘要在过去的十年中,深度卷积网络已经被广泛应用于医学图像分割,并显示出足够强的性能。然而,由于卷积架构中存在固有的归纳偏差,它们缺乏对于图像中长程相关性的理解。最近提出的利用自注意力机制的基于转换结构编码了长期依赖性。并学习了高度表达的表示。这促使我们探索基于Transformer的解决方案,并研究使用基于Transformer架构的可行性。大多数现有的基于Transformer的网络架构建议用于视觉应用需要大规模数据集来正确训练。然而,用于医学图像成像的数据样本量相对较低,使得难以训练用于医学应用的tr原创 2021-05-11 16:57:46 · 1288 阅读 · 0 评论 -
UNet系列网络合集
1.U-net最初的Unet的下采样过程非常的简单。那么我们看一下他的一些变体吧import torchimport torch.nn as nnimport torch.nn.functional as fclass Downsample_block(nn.Module): # 这里的in_channels和out_channels 都是通道数 def __init__(self,in_channels,out_channels): super(Downsample_block,sel原创 2021-05-07 22:11:25 · 3673 阅读 · 3 评论 -
Rotate to Attend: Convolutional Triplet Attention Module
摘要得益于在通道或空间位置之间建立相互依赖性的能力,注意力机制最近被广泛研究并广泛应用于各种计算机视觉任务中。这篇文章中,我们研究了重量轻但有效的注意力机制,并提出了三重注意,一种新的方法来计算注意权重,通过捕捉交叉维度的相互作用使用三分支结构。对于一个输入张量,三重注意力通过旋转操作和剩余变换建立了维度间的依赖关系,并以可以忽略的计算开销对通道间和空间信息进行编码。我们的方法即简单有高效,可以作为附加模块轻松插入经典骨干网络,我们证明了我们的方法在各种具有挑战性的任务上的有效性,包括ImageNet-1原创 2021-04-15 19:28:30 · 2168 阅读 · 0 评论 -
SA-NET: shuffle attention for deep convolutional neural networks
摘要注意力机制使得神经网络能够准确地关注输入的所有相关元素,已经成为提高深层神经网络性能的重要组成部分。在计算机视觉的研究中心,主要有两种广泛使用的注意力机制:空间注意和通道注意力,他们分别旨在捕捉像素级的成对关系和通道依赖性。虽然将它们融合在一起可能会比他们各自的实现获得更好的性能,但是这不可避免地会增加计算开销。针对这一问题,本文提出了一种有效的Shuffle Attention模块,该模块采用Shuffle单元来有效的结合两种类型的注意力机制。具体来说,SA首先将通道尺寸分组为多个子特征,然后并行处原创 2021-04-14 12:17:15 · 2908 阅读 · 1 评论 -
Example: inference with pretrained nnU-Net models
Example: inference with pretrained nnU-Net modelsThis is a step-by-step example on how to run inference with pretrained nnU-Net models on the Prostate dataset of theMedical Segemtnation Decathlon.Install nnU-Net by following the instructions here. Mak转载 2021-03-25 21:51:47 · 336 阅读 · 0 评论 -
KITS+肾脏肿瘤预处理+重采样+窗体变换+强度裁剪
摘要目前正在做肾脏肿瘤的预处理问题,比赛地址。KiTS19 年比赛的 结果。JunMa大佬在自己的知乎里面给出了自己的看法和对于论文的学习与展望。我最近正在解决数据预处理的问题,论文的数据预处理分为了重采样,spacing 到 3.22mmx1.62mmx1.62mm,然后将灰度值cut off到[-79,304],然后将cut off 之后的数据进行z-score(subtract 101 and divide by 76.9 to bring the intensity values in a原创 2020-10-21 12:08:21 · 2199 阅读 · 5 评论