动态卷积阅读笔记

1.DY-CNNs

  • 文章:Dynamic Convolution: Attention over Convolution Kernels(CVPR2020)
  • 链接:https://arxiv.org/abs/1912.03458v2
  • 核心思想:
    提高网络性能的同时平衡计算负担。采用注意力机制聚合不同的卷积核,从而在不增加网络deep与wide的基础上提高性能。
  • 动态卷积原理:
    卷积与本文中的动态卷积公式分别如下:
    在这里插入图片描述
    在这里插入图片描述
    因而本文的重点在于不同核的产生训练,与注意力机制权重的形成
  • attention模块原理
    attention权重产生自输入图像,因而计算整体可视为非线性运算,表示能力更强。见下图:
    在这里插入图片描述
  • 其余训练中的优化设置:
    1.令注意力权重和为1,从而减小训练空间
    在这里插入图片描述
    2.优化softmax函数,使其在早期能够更好的优化所有的核
    在这里插入图片描述
    • SENet 网络:
      在这里插入图片描述
      在这里插入图片描述

2.CondConv

  • 文章:CondConv: Conditionally Parameterized Convolutions for Efficient Inference(NeurIPS 2019)
  • 链接:https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1904.04971
  • 原理:
    公式如下:
    在这里插入图片描述
    本文将每个卷积核视为一个专家,此种算法结合了多个专家的综合意见而没有增加很多计算负担,个人认为是对这种方法一种非常适合写论文的解读。
    在这里插入图片描述
    同样是权重赋值类算法,其权重产生方法为全局池化,全连接,sigmoid三步:
    在这里插入图片描述

参考

【1】https://blog.csdn.net/weipf8/article/details/105756526/
【2】https://zhuanlan.zhihu.com/p/141868898

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值