- 博客(2)
- 资源 (1)
- 收藏
- 关注
原创 《FcaNet: Frequency Channel Attention Networks》
文章解读DCT的初始化代码:这里fidx_u和fidx_v可依据自己的实验结果算出,比如跑出来得到一个4*4个结果如下所示:假设我们选取最高的4个频率分量,那么结果为(0.9, 0.8, 0.7, 0.6),它们对应的序号为([1, 2], [0, 0], [3, 0], [2, 3]),那么有:fidx_u = [1, 0, 3, 2]fidx_v = [2, 0, 0, 3]具体详情可参考知乎ID:https://www.zhihu.com/people/pei
2020-12-31 17:59:19 1637 1
原创 注意力机制总结
导读注意力机制,其本质是一种通过网络自主学习出的一组权重系数,并以“动态加权”的方式来强调我们所感兴趣的区域同时抑制不相关背景区域的机制。在计算机视觉领域中,注意力机制可以大致分为两大类:强注意力和软注意力。由于强注意力是一种随机的预测,其强调的是动态变化,虽然效果不错,但由于不可微的性质导致其应用很受限制。与之相反的是,软注意力是处处可微的,即能够通过基于梯度下降法的神经网络训练所获得,因此其应用相对来说也比较广泛。软注意力按照不同维度(如通道、空间、时间、类别等)出发,目前主流的注意力机制可以分为以下
2020-12-31 17:41:11 28485
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人