自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 资源 (1)
  • 收藏
  • 关注

原创 《FcaNet: Frequency Channel Attention Networks》

文章解读DCT的初始化代码:这里fidx_u和fidx_v可依据自己的实验结果算出,比如跑出来得到一个4*4个结果如下所示:假设我们选取最高的4个频率分量,那么结果为(0.9, 0.8, 0.7, 0.6),它们对应的序号为([1, 2], [0, 0], [3, 0], [2, 3]),那么有:fidx_u = [1, 0, 3, 2]fidx_v = [2, 0, 0, 3]具体详情可参考知乎ID:https://www.zhihu.com/people/pei

2020-12-31 17:59:19 1637 1

原创 注意力机制总结

导读注意力机制,其本质是一种通过网络自主学习出的一组权重系数,并以“动态加权”的方式来强调我们所感兴趣的区域同时抑制不相关背景区域的机制。在计算机视觉领域中,注意力机制可以大致分为两大类:强注意力和软注意力。由于强注意力是一种随机的预测,其强调的是动态变化,虽然效果不错,但由于不可微的性质导致其应用很受限制。与之相反的是,软注意力是处处可微的,即能够通过基于梯度下降法的神经网络训练所获得,因此其应用相对来说也比较广泛。软注意力按照不同维度(如通道、空间、时间、类别等)出发,目前主流的注意力机制可以分为以下

2020-12-31 17:41:11 28485

pip镜像加速工具包安装及使用

用于在用户目录下建立一个“镜像加速设置”,指定pip使用国内的源如阿里云,下载速度会快上好多倍。

2019-03-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除