论文(5)Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net

IBN-Net在WAD 2018 Drivable Area task中夺冠,提出了一种增强深度学习模型学习与泛化能力的新架构。通过对比IN与BN的作用,IBN-Net在保持ImageNet上优于ResNet的效果同时,减少了参数和计算量,尤其适用于跨数据集任务。实验显示,IBN-Net在城市景观和虚拟数据集间的迁移表现出色。
摘要由CSDN通过智能技术生成

Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net

在WAD 2018的Drivable Area track 的task中,获得了冠军,mIoU达到86.18%

motivation

由于数据集众多,导致当前的CNN模型基本上只适用于某一个domain或者task,如何在不fine-tuning的情况下使得模型可以跨数据集?本文提出了IBN-Net。
这里写图片描述
图a 表示真实数据集和虚拟数据集
图b 表示同一张图片不同色调和亮度
图c 表示同一张图片不同风格(莫奈和梵高)
解决上面这些差异性的方式就是让网络尽可能的习得图片的不变性,而不是针对变化设计新的模型。

contribution
  1. 提出了一个新的模型结构,可以提升深度神经网络在learning和generalization上的能力。IBN-Net50在ImageNet上取得了比ResNet50更好的效果,并且参数量和计算量更小
  2. 仔细分析了IN和BN在神经网络中的用处
    这里写图片描述

上图中,y轴

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值