阅读
文章平均质量分 88
xiongxyowo
这个作者很懒,什么都没留下…
展开
-
[论文翻译] Estimation of Image Rotation Angle Using Interpolation-Related Spectral Signatures
Estimation of Image Rotation Angle Using Interpolation-Related Spectral Signatures With Application to Blind Detection of Image ForgeryAbstract受Gallagher提出的图像重新缩放估计方法的启发,我们开发了一种基于旋转角度与峰值频率之间关系的图像旋转角度估计器。插值发生在图像边缘图的频谱中,我们使用重新缩放/旋转检测和参数估计来检测插入图像中的假对象。当伪造的图翻译 2021-12-21 23:54:54 · 179 阅读 · 0 评论 -
[论文阅读] Instance-level salient object segmentation
论文地址:https://doi.org/10.1016/j.cviu.2021.103207代码:https://github.com/Kinpzz/MSRNet-CVIU发表于:CVIU.21注:本文原发表于CVPR.17Abstract由于深度卷积神经网络的发展,图像显著性检测最近取得了巨大成功。然而,大多数现有的显著目标检测方法不能识别检测到的显著区域中的单个物体实例。在本文中,我们提出了一种显著性实例分割方法,该方法可以为输入图像产生一个具有明显对象实例标签的显著图。我们的方法由三个主要原创 2021-12-17 11:01:56 · 976 阅读 · 0 评论 -
[论文阅读] Scene Context-Aware Salient Object Detection
论文地址:https://openaccess.thecvf.com/content/ICCV2021/html/Siris_Scene_Context-Aware_Salient_Object_Detection_ICCV_2021_paper.html代码:https://github.com/SirisAvishek/Scene_Context_Aware_Saliency发表于:ICCV’21Abstract显著目标检测可以识别图像中吸引视觉注意力的物体。尽管最近的文献中考虑了上下文特征,但原创 2021-10-14 10:28:38 · 686 阅读 · 3 评论 -
[论文阅读] Self-supervised Correction Learning for Semi-supervised Biomedical Image Segmentation
论文地址:https://doi.org/10.1007/978-3-030-87196-3_13代码:https://github.com/ReaFly/SemiMedSeg发表于:MICCAI’21Abstract生物医学图像分割在计算机辅助诊断中起着重要作用。然而,现有的基于CNN的方法在很大程度上依赖于大量的人工标注,这些标注非常昂贵,需要大量的人力资源。在这项工作中,我们采用了从粗到细的策略,并提出了一种用于半监督生物医学图像分割的自监督校正学习范式。具体来说,我们设计了一个双任务网络,包原创 2021-10-13 10:11:52 · 749 阅读 · 3 评论 -
[论文阅读] Pyramid Feature Attention Network for Saliency Detection
论文地址:https://arxiv.org/abs/1903.00179代码:https://github.com/CaitinZhao/cvpr2019_Pyramid-Feature-Attention-Network-for-Saliency-detection发表于:CVPR’19Abstract显著性检测是计算机视觉的基本挑战之一。如何提取有效的特征是显著性检测的一个关键点。最近的方法主要是不加区分地采用融合多尺度卷积特征。然而,并非所有的特征都对显著性检测有用,有些甚至会造成干扰。为了原创 2021-09-30 10:52:52 · 395 阅读 · 0 评论 -
[论文阅读] Cascaded Partial Decoder for Fast and Accurate Salient Object Detection
论文地址:https://arxiv.org/abs/1904.08739代码:https://github.com/wuzhe71/CPD发表于:CVPR’19Abstract现有的最先进的显著目标检测网络依赖于融合预训练的卷积神经网络(CNN)的多级特征。与高层特征相比,低层特征对性能的贡献较小,但由于其空间分辨率较大,因此计算成本较高。在本文中,我们提出了一个新颖的级联部分解码器(CPD)框架,用于快速和准确的显著目标检测。一方面,该框架构建了部分解码器,放弃了较浅层的较大分辨率特征,以达到加原创 2021-09-30 09:53:29 · 476 阅读 · 1 评论 -
[论文阅读] A Simple Pooling-Based Design for Real-Time Salient Object Detection
论文地址:https://arxiv.org/abs/1904.09569代码:http://mmcheng.net/poolnet/发表于:CVPR’19Abstract我们通过研究如何扩大卷积神经网络中池化的作用来解决显著目标检测的问题。基于U型结构,我们首先在自下而上的路径上建立了一个全局引导模块(GGM),旨在为不同特征层次的层提供潜在显著对象的位置信息。我们进一步设计了一个特征聚合模块(FAM),使粗略层次的语义信息与自上而下路径的精细层次的特征很好地融合。通过在自上而下途径的融合操作之后原创 2021-09-29 13:01:37 · 299 阅读 · 0 评论 -
[论文阅读] A Late Fusion CNN for Digital Matting
论文地址:https://openaccess.thecvf.com/content_CVPR_2019/papers/Zhang_A_Late_Fusion_CNN_for_Digital_Matting_CVPR_2019_paper.pdf发表于:CVPR’19Abstract本文研究了一个深度卷积神经网络的结构,通过将单张RGB图像作为输入来预测前景alpha matte。我们的网络是完全卷积的,有两个解码器分支分别用于前景和背景分类。然后,一个融合分支被用来整合这两个分类结果,产生alpha原创 2021-09-14 16:07:24 · 176 阅读 · 0 评论 -
[论文阅读] Deep Automatic Natural Image Matting
论文地址:https://arxiv.org/abs/2108.07851发表于:Arxiv 2021.08Abstract自动图像抠图(AIM)是指从任意自然图像中估计软前景,而不需要像trimap那样的辅助输入,这对图像编辑很有用。先前的方法试图学习语义特征来帮助抠图过程,但仅限于具有显著不透明(salient opaque)前景的图像,如人类和动物。在本文中,我们研究了将其扩展到具有显著透明/细微前景或非显著前景的自然图像时的困难。为了解决这个问题,我们提出了一个新颖的端到端抠图网络,它可以为上原创 2021-09-13 19:03:43 · 957 阅读 · 0 评论 -
[论文阅读] Boosting Salient Object Detection with Transformer-based Asymmetric Bilateral U-Net
论文地址:https://arxiv.org/abs/2108.07851发表于:Arxiv 2021.08Abstract现有的显著目标检测(SOD)方法主要依靠基于CNN的U型结构,通过跨层连接来融合全局上下文和局部空间细节,这分别对定位显著对象和细化对象细节至关重要。尽管取得了巨大的成功,但CNN在学习全局上下文方面的能力是有限的。最近,由于vision transformer对全局依赖关系的强大建模,它在计算机视觉领域取得了革命性的进展。然而,直接将transformer应用于SOD是次优的,原创 2021-09-10 13:34:29 · 522 阅读 · 3 评论 -
[论文阅读] Unifying Global-Local Representations in Salient Object Detection with Transformer
论文地址:https://arxiv.org/abs/2108.02759代码:https://github.com/OliverRensu/GLSTR发表于:Arxiv 2021.08Abstract全卷积网络(FCN)在很长一段时间内一直主导着显著目标检测。然而,CNN的局部性要求模型足够深,以拥有一个全局的感受野,而这样一个深的模型总是会导致局部细节的丢失。在本文中,我们将一个新的基于注意力的编码器–vision transformer引入到显著目标检测中,以确保从浅层到深层表征的全局化。由于原创 2021-09-09 20:17:04 · 371 阅读 · 0 评论 -
[论文阅读] Disentangled High Quality Salient Object Detection
论文地址:https://arxiv.org/abs/2108.03551代码:https://github.com/luckybird1994/HQSOD发表于:ICCV’21Abstract为了从视觉场景中发现与定位最有区分性的物体,显著目标检测(SOD)在各种计算机视觉系统中发挥着重要的作用。随着高分辨率时代的到来,SOD方法正面临着新的挑战。以前方法的主要局限性在于,它们试图在低分辨率下通过单一的回归任务同时识别出显著区域并估计出准确的对象边界。这种做法忽视了这两个困难问题之间的内在差异,导原创 2021-09-09 16:24:46 · 960 阅读 · 12 评论 -
[论文阅读] Transformer Transforms Salient Object Detection and Camouflaged Object Detection
论文地址:https://arxiv.org/abs/2104.10127代码:https://github.com/fupiao1998/TrasformerSOD发表于:Arxiv 2021.04Abstract源自机器翻译的transformer网络尤其擅长在长序列中建模远程依赖。 目前,transformer网络在各种视觉任务上取得了革命性的进展,从高级分类任务到低级密集预测任务。 本文主要研究Transformer网络在显著目标检测(SOD)中的应用。 具体来说,我们在统一框架内采用密集t原创 2021-08-20 16:22:58 · 1253 阅读 · 0 评论 -
[代码阅读] Visual Saliency Transformer
论文地址:https://arxiv.org/abs/2104.12099代码:https://github.com/nnizhang/VST发表于:ICCV 2021(Arxiv 2021.04)论文解读:Project Architecture该项目的结构如下:Token-to-Token ModuleT2T模块位于t2t_vit.py中的T2T_Module类中,代码如下:class T2T_module(nn.Module): def __init__(self, img_s原创 2021-08-05 15:45:24 · 1010 阅读 · 0 评论 -
[论文翻译] Visual Saliency Transformer
Visual Saliency TransformerAbstract最近,大规模的显著性检测方法通过依靠基于CNN的架构取得了可喜的成果。作为一种选择,我们从无卷积的seq2seq角度重新思考这一任务,并通过对长距离依赖关系进行建模来预测显著性,这是卷积所不能实现的。具体来说,我们开发了一个基于纯transformer的新型统一模型,记为Visual Saliency Transformer(VST),用于RGB和RGB-D显著目标检测(SOD)。其将图像块(image patch)作为输入,利用tr翻译 2021-08-04 17:02:01 · 1695 阅读 · 1 评论 -
[论文阅读] Tokens-to-Token ViT: Training Vision Transformers from Scratch on ImageNet
论文地址:https://arxiv.org/abs/2101.11986代码:https://github.com/yitu-opensource/T2T-ViT发表于:Arxiv 2021.01AbstractTransformer在语言建模中很受欢迎,最近也被探索用于解决视觉任务,例如,用于图像分类的Vision Transformer(ViT)。ViT模型将每个图像分割成具有固定长度的token序列,然后应用多个Transformer层来模拟它们的全局关系以进行分类。然而,当在ImageNe原创 2021-07-30 23:11:03 · 2603 阅读 · 0 评论 -
[论文阅读] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
论文地址:https://arxiv.org/abs/2010.11929代码:https://github.com/google-research/vision_transformer发表于:ICLR 2021(Arxiv 2020.11)Abstract虽然Transformer架构已经成为自然语言处理任务的事实标准,但它在计算机视觉方面的应用仍然有限。在视觉中,注意力机制要么与卷积网络一起使用,要么用来取代卷积网络的某些组件,在此同时保持卷积网络的整体结构。我们表明,这种对CNN的依赖是没有必原创 2021-07-28 21:12:18 · 1106 阅读 · 2 评论 -
[论文阅读] Stereoscopically Attentive Multi-scale Network for Lightweight Salient Object Detection
论文地址:https://dx.doi.org/10.1109/TIP.2021.3072811代码:https://mmcheng.net/SAMNet发表于:TIP 2021AbstractMotivationNetwork ArchitectureExperiment性能超越了X个最近模型,包括。SummaryRef原创 2021-07-25 16:34:00 · 881 阅读 · 0 评论 -
[论文阅读] Looking for the Detail and Context Devils: High-Resolution Salient Object Detection
论文地址:https://dx.doi.org/10.1109/TIP.2020.3045624发表于:TIP 2021Abstract近年来,随着大规模基准测试与深度学习技术的成就,显著目标检测(SOD)已经显示出巨大的成功。然而,现有的SOD方法主要集中在低分辨率的自然图像上,如400×400或更低。这一缺陷阻碍了它们在先进实际应用中的落地,因为这些应用需要高分辨率且富含细节的结果。此外,显著目标缺乏边界细节以及语义上下文信息也是准确SOD的一个关键问题。为了解决这些问题,在本文中,我们专注于解决原创 2021-07-25 14:57:43 · 633 阅读 · 0 评论 -
[论文阅读] Structure-Consistent Weakly Supervised Salient Object Detection with Local Saliency Coherence
论文地址:https://ojs.aaai.org/index.php/AAAI/article/view/16434代码:http://github.com/siyueyu/SCWSSOD发表于:AAAI 2021Abstract近几年来,稀疏标签一直备受关注。然而,弱监督与完全监督的SOD方法之间的性能差距是巨大的,并且以前的大多数弱监督方法都采用了复杂的训练过程与花哨的设计技巧。在本文中,我们提出了一个通过草图标注(scribble annotation)来进行弱监督显著目标检测的单轮端到端训原创 2021-07-25 11:05:30 · 1407 阅读 · 1 评论 -
[论文阅读] Cross-layer feature pyramid network for salient object detection
论文地址:https://dx.doi.org/10.1109/TIP.2021.3072811发表于:TIP 2021I. Intro这个网络是用来进行显著目标检测与伪装目标检测的,并且在这两个任务上均达到了SOTA将Joint Training应用到了两个近乎相反的任务上Global Contextual Information深层特征图包含全局上下文信息,但是也牺牲了一定的空间分辨率与局部细节。那么这就有一个问题,如果全局上下文信息提取的不够准确的话,那么也会直接对后续refine的性原创 2021-07-18 21:16:20 · 1609 阅读 · 5 评论 -
[论文阅读] AMPNet: Average- and Max-Pool Networks for Salient Object Detection
论文地址:https://dx.doi.org/10.1109/TCSVT.2021.3054471发表于:TCYB 2021I. IntroII. Related Work从backbone中提取的特征既包含有用的也包含无用的,因此怎么去提取整合多级特征就是一个问题。下图展示了一些常见的网络形态:III. Network ArchitectureIV. Bottom-Up Pathway对应结构图中最左边的这一列:其实说白了就是Encoder-Decoder架构中的Encode原创 2021-07-14 18:13:44 · 727 阅读 · 2 评论 -
[论文阅读] BCNet: Bidirectional collaboration network for edge-guided salient object detection
论文地址:https://doi.org/10.1016/j.neucom.2021.01.034代码地址:发表于:Neurocomputing 2021I. Intro这个网络是用来进行显著目标检测与伪装目标检测的,并且在这两个任务上均达到了SOTA将Joint Training应用到了两个近乎相反的任务上Network Architecture嘤嘤嘤Consistency Saliency Maximization嘤嘤嘤Bounded Feature Fusion嘤嘤嘤Lo原创 2021-07-14 14:24:04 · 1044 阅读 · 2 评论 -
[论文阅读] Exploring Dense Context for Salient Object Detection
论文地址:https://dx.doi.org/10.1109/TCSVT.2021.3069848发表于:TCSVT 2021Abstract上下文在显著目标检测中起着重要作用。高级上下文描述了不同物体/物体不同部分之间的关系,因此有助于发现显著目标的具体位置;而低级上下文可以为显著目标边界的划分提供精细的信息。然而,现有的SOD方法还没有充分研究如何去感知并利用丰富上下文。常见的上下文提取策略,例如,利用大卷积核或者空洞卷积,其没有同时考虑effectiveness与efficiency,可能只能原创 2021-07-12 20:19:57 · 475 阅读 · 2 评论 -
论文阅读:Spatial context-aware network for salient object detection
论文地址:https://doi.org/10.1016/j.patcog.2021.107867代码地址:发表于:PR 2021I. Intro这个网络是用来进行显著目标检测与伪装目标检测的,并且在这两个任务上均达到了SOTA将Joint Training应用到了两个近乎相反的任务上Network Architecture嘤嘤嘤Long-path Context Module嘤嘤嘤Short-path Context Module嘤嘤嘤Loss本文没有采用比较特别的loss原创 2021-07-11 15:58:51 · 822 阅读 · 1 评论 -
论文阅读:DNA: Deeply Supervised Nonlinear Aggregation for Salient Object Detection
论文地址:https://dx.doi.org/10.1109/TCYB.2021.3051350发表于:TCYB 2021I. Intro这个网络是用来进行显著目标检测与伪装目标检测的,并且在这两个任务上均达到了SOTA将Joint Training应用到了两个近乎相反的任务上Global Contextual Information深层特征图包含全局上下文信息,但是也牺牲了一定的空间分辨率与局部细节。那么这就有一个问题,如果全局上下文信息提取的不够准确的话,那么也会直接对后续refine原创 2021-07-10 13:40:25 · 409 阅读 · 0 评论 -
论文阅读:A Progressive Architecture With Knowledge Review Network for Salient Object Detection
论文地址:https://ojs.aaai.org/index.php/AAAI/article/view/16408发表于:AAAI 2021I. Intro这个网络是用来进行显著目标检测与伪装目标检测的,并且在这两个任务上均达到了SOTA将Joint Training应用到了两个近乎相反的任务上Network ArchitectureCoarse Locating ModuleCoarse Locating Module,粗定位模块,这个模块的作用是对ground truth进行处理原创 2021-07-09 16:08:09 · 710 阅读 · 3 评论 -
论文阅读:Uncertainty-aware Joint Salient Object and Camouflaged Object Detection
论文地址:https://arxiv.org/abs/2104.02628代码地址:https://github.com/JingZhang617/Joint_COD_SOD发表于:CVPR 2021I. Intro这个网络是用来进行显著目标检测与伪装目标检测的,并且在这两个任务上均达到了SOTAII. Network Architecture一点一点来看:Xs : SOD数据集中的图像Xc : COD数据集中的图像EαsE_{\alpha_{s}}Eαs : 用于SOD的E原创 2021-07-02 18:43:32 · 1597 阅读 · 5 评论 -
论文阅读:BPFINet: Boundary-aware progressive feature integration network for salient object detection
论文地址:https://doi.org/10.1016/j.neucom.2021.04.078发表于:Neurocomputing 2021内容简介这个网络是用来进行抠图的网络结构比较有意思,不仅仅是一个Encoder-Decoder,而是用了俩。不同的Encoder能学习不同的信息,而不同的Decoder同样能处理不同的信息。context encoder:matting encoder:alpha decoder:foreground decoder:Refine:大原创 2021-07-02 15:22:38 · 668 阅读 · 0 评论 -
论文阅读:Pyramidal Feature Shrinking for Salient Object Detection
论文地址:https://ojs.aaai.org/index.php/AAAI/article/view/16331发表于:AAAI 2021I. Intro这个网络是用来进行显著目标检测的,II. Network Architecture一点一点来看:Xs : SOD数据集中的图像Xc : COD数据集中的图像EαsE_{\alpha_{s}}Eαs : 用于SOD的Encoder,backbone为ResNet50EαcE_{\alpha_{c}}Eαc : 用于C原创 2021-07-02 00:40:19 · 1071 阅读 · 3 评论 -
论文阅读:Non-local Neural Networks
内容简介这个网络是用来做息肉分割的(不过在思想上像SOD,这里的显著对象就可以认为是息肉)主要的点在于提出了一堆比较新鲜的模块(LCA、GCM、ASM)LCA(Local Context Attention)局部上下文注意力模块。长这样:所谓“局部”即对更容易出错的复杂区域(如边缘)进行学习。对于某个中间Encoder层的输出Prediction,将其放入一个公式计算:Attij=1−∣pi+1j−T∣max(T,1−T)A t t_{i}^{j}=1-\frac{\left|p_{i原创 2021-03-22 17:34:23 · 346 阅读 · 2 评论 -
论文阅读:BASNet:Boundary-Aware Salient Object Detection
论文地址:https://arxiv.org/pdf/1703.03872.pdf内容简介这个网络是用来做抠图的(Matting),能够取得出色的效果,算是利用深度学习进行抠图的鼻祖提出了Adobe Image Matting(AIM,有时也称DIM)数据集,解决了之前抠图数据稀缺的问题,后续很多工作也以此数据集为基础网络结构简单来说就是一个Encoder-Decoder + Refine的结构,其中:在第一阶段,每次Encode下采样将特征图尺寸缩减为原来的1/2,共五次,最终将特征图缩原创 2021-03-19 19:33:12 · 624 阅读 · 2 评论 -
论文阅读:Semantic Human Matting
论文地址:https://arxiv.org/pdf/1809.01354.pdf内容简介这个网络是用来做人像抠图的(Matting),只能抠人不能抠别的制作了一个很大的高质量人像抠图数据集(52511train+1400test),据论文介绍花了1200小时;不过好像还没开源属于自动抠图,不需要手动输入额外trimap网络结构简单来说就是把两个网络装起来做个pipeline,其中:T-Net: 负责进行trimap生成。虽然本文并不需要手工去输入trimap,但是对于matting这原创 2021-03-17 19:57:45 · 938 阅读 · 0 评论 -
论文阅读:Deep Image Matting
论文地址:https://arxiv.org/pdf/1703.03872.pdf内容简介这个网络是用来做抠图的(Matting),能够取得出色的效果,算是利用深度学习进行抠图的鼻祖提出了Adobe Image Matting(AIM,有时也称DIM)数据集,解决了之前抠图数据稀缺的问题,后续很多工作也以此数据集为基础网络结构简单来说就是一个Encoder-Decoder + Refine的结构,其中:在第一阶段,每次Encode下采样将特征图尺寸缩减为原来的1/2,共五次,最终将特征图缩原创 2021-03-11 10:50:19 · 299 阅读 · 0 评论 -
论文阅读:U2 Net: Going Deeper with Nested U-Structure for Salient Object Detection
论文地址:https://arxiv.org/pdf/2005.09007.pdf内容简介这个网络是用来做显著目标检测的(SOD),能够取得出色的效果,同时模型文件较小,更适合于移动设备不同于原有的SOD网络,没有使用用于图像分类的backbone(如resnet),而是重头开始做了一个,避免受ImageNet数据分布的影响网络结构能做的更深,能够更好的利用更高分辨率下(更准确的说,多尺度下)的特征网络结构其原型也是一个UNet,思想也非常直接:既然UNet(Encoder-Decode原创 2021-03-10 18:27:33 · 1068 阅读 · 0 评论 -
论文翻译:Real-Time High-Resolution Background Matting
论文地址:https://arxiv.org/pdf/2012.07810.pdf文中所有图片与表格统一移动至了文末MichiGAN:用于人像编辑的多输入条件头发图像生成摘要尽管最近利用GANs成功地生成了人脸图像,但由于其几何形状和外观的复杂性未被充分挖掘,条件头发编辑仍然具有挑战性。在本文中,我们提出了MichiGAN(多输入条件头发图像GAN),这是一种用于交互式人像头发操作的新型条件图像生成方法。为了提供用户对每一个主要头发视觉因素的控制,我们显式地将头发分解为四个正交属性,包括形状、结翻译 2020-12-22 19:41:23 · 3926 阅读 · 3 评论 -
论文翻译:MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait Editing
论文地址:https://arxiv.org/pdf/2010.16417.pdf文中所有图片与表格统一移动至了文末MichiGAN:用于人像编辑的多输入条件头发图像生成摘要尽管最近利用GANs成功地生成了人脸图像,但由于其几何形状和外观的复杂性未被充分挖掘,条件头发编辑仍然具有挑战性。在本文中,我们提出了MichiGAN(多输入条件头发图像GAN),这是一种用于交互式人像头发操作的新型条件图像生成方法。为了提供用户对每一个主要头发视觉因素的控制,我们显式地将头发分解为四个正交属性,包括形状、结翻译 2020-12-19 15:09:26 · 1487 阅读 · 2 评论 -
论文翻译:Two-phase Hair Image Synthesis by Self-Enhancing Generative Model
论文地址:https://arxiv.org/pdf/1902.11203.pdf基于自增强生成模型的两阶段头发图像合成摘要给予有限的指导,如稀疏草图或低分辨率图像,生成可信头发图像,已经随着生成对抗网络(GANs)的兴起而成为可能。传统的图像到图像翻译网络可以产生可辨别的结果,但通常会丢失更精细的纹理,而且普遍存在模糊伪像。本文提出了一种高质量的用于头发图像合成的两阶段生成模型。两阶段流水线首先通过现有的图像转换模型来生成粗图像,然后将具有自增强能力的再生网络应用于粗图像。通过本文提出的结构提取层,翻译 2020-12-16 18:54:09 · 578 阅读 · 1 评论 -
论文翻译:U-Net: Convolutional Networks for Biomedical Image Segmentation
论文地址:http://www.arxiv.org/pdf/1505.04597.pdfU-Net:用于生物医学影像分割的卷积网络摘要普遍认为深度网络的成功训练需要数千个标记好的训练样本。在本文中,我们提出了一种网络和训练策略,依靠高效的数据增强,以更有效地利用现有的标记样本。该结构由捕获上下文的收缩路径和对称的支持精确定位的展开路径组成。我们证明这样的网络可以从很少的图像中进行端到端的训练,并在ISBI电镜神经元结构分割挑战中优于之前最好的方法(滑动窗口卷积网络)。用该网络在透射光镜图像(相衬和DI翻译 2020-12-05 12:57:44 · 1457 阅读 · 0 评论