卷积神经网络在近几年获得了跨越式的发展,虽然它们在诸如图像识别任务上的效果越来越好,但是随之而来的则是模型复杂度的不断提升。越来越深、越来越复杂的卷积神经网络在训练阶段需要大量存储与计算资源,因此设计高效的卷积神经网络是非常重要和基础的问题,而消除卷积核的冗余性是该问题主要的解决方案。
如何消除消除卷积核的冗余性?AI科技大本营邀请到微软亚洲研究院视觉计算组资深研究员王井东,他将在 31 号的直播公开课中为大家讲解发表在 ICCV 2017 和 CVPR2018 上基于交错组卷积的方法,这种方法优于 ResNet 和 MobileNet。
(点击链接,免费报名:https://edu.csdn.net/huiyiCourse/detail/783)
感兴趣的读者可以在直播前自行查阅论文或者下载代码,自己动手尝试,加深理解。
论文地址: