GhostNet阅读笔记
Ghost论文笔记
原文地址 https://arxiv.org/abs/1911.11907
创新点理解,举一个简单例子:
通常,对给定3通道图像,采用56个卷积核卷积后,得到56个特征图即channel=56啦,下一个卷积层采用128个卷积核进行卷积时,每个卷积核都要同时对56个特征图相同位置卷积后取平均值,作为卷积后生成的一个点,这个操作,费时费力,如论文所说,massive computational costs 和 considerable memory and FLOPs。传统的卷积操作公式为:
FLOPs = n · h(out) · w(out) · c · k· k
现在,Ghost module 改变一下,比如原来打算用128个卷积核,即输出是128的channel,那么我们改进方法是用m个卷积核,m<n,得到输出Y’ ,Y’中的每个特征图都可以经过线性操作生成多个新的特征图。
原文中的Figure2 有Ghost module
原文中的Figure3 是Ghost module组成的 Ghost Bottlenecks,没看懂的是网络结构中#exp 扩展大小是怎么理解的?原文中的说的线性操作的两个系数(假设y=ax+b),a和b需要进行学习吗,该如何取值,论文看的比较粗,希望大佬留言一下。