自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 资源 (5)
  • 收藏
  • 关注

原创 CVPR 2022 | RepLKNet:采用31×31大kernel的CNN网络,性能超越Swin Transformer

Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs paper:​https://arxiv.org/pdf/2203.06717.pdf​code:https://github.com/megvii-research/RepLKNet该篇论文论述了卷积核的kernelsize可以选择多大。25x25就很好,31x31甚至更好。清华大学丁霄汉继RepVGG后提出了一种大量采用超大卷积核的模型...

2022-03-15 20:46:55 4604 1

原创 2021年12月提出的一种全局注意力机制方法 | 即插即用

Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactionspaper:https://arxiv.org/pdf/2112.05561.pdf摘要人们研究了多种注意机制,以提高各种计算机视觉任务的性能。然而,先前的方法忽略了保留通道和空间方面的信息以增强跨维度交互的意义。因此,论文提出了一种全局注意机制,通过减少信息的损失和提高全局特征的交互,提高深度神经网...

2021-12-26 11:30:29 14471 15

原创 Keras高级API:实现自定义函数和层

问题分析Keras是一个高度封装的库,它的优点是可以进行快速的建模,缺点是它不处理底层运算,如张量内积等。Keras提供众多常见的已编写好的函数和层对象,例如常见的K.reshape函数、K.sigmoid函数、卷积层、池化层等,可以直接通代码调用。由于新的论文中使用的算法比较新颖、涉及的方法千方百态,Keras不可能涉及地面面俱到。此外,在实现算法过程中,往往会根据具体项目的一些独特性设计一些函数和层。所以,在这个时候,应该在算法中使用Keras自定义一些函数和层。解决方...

2021-12-16 15:26:39 2023 1

原创 2022 AAAI | FLANet 全注意力网络用于语义分割

香港中文大学Fully Attentional Network for Semantic Segmentation paper:https://arxiv.org/pdf/2112.04108.pdf摘要最近的非局部自注意方法(non-local)已被证明在捕获语义分割的长期依赖关系方面是有效的。这些方法通常形成一个相似的通道特征图(通过压缩空间维度)或空间特征图(通过压缩通道)来描述沿通道或空间维度的特征关系。然而,这种做法倾向于在其他维度上压缩特征依赖性,从而导致注...

2021-12-09 22:00:12 5973

原创 2021NIPS | 即插即用,标准化注意力机制NAM

NAM: Normalization-based Attention Modulepaper:https://arxiv.org/pdf/2111.12419.pdfcode:https://github.com/Christian-lyc/NAM摘要注意机制是近年来人们普遍关注的研究兴趣之一。它帮助深度神经网络抑制较不显著的像素或通道。以往的许多研究都集中于通过注意力操作来捕捉显著特征。这些方法成功地利用了不同特征维度上的互信息。然而,它们没有考虑到权重的贡献因素,...

2021-12-01 21:45:04 9954 13

原创 ICCV 2021 | 性能炸裂的通道剪枝算法ResRep(Keras复现)

# -*- coding: utf-8 -*-"""CompactorLayer layers."""from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_functionfrom keras import activationsfrom keras import initializersfrom keras import regularizers.

2021-09-29 21:33:15 3668 8

原创 CVPR 2020| Dynamic Convolution动态卷积(keras实现)

微软研究院Dynamic Convolution: Attention over Convolution Kernelspaper:https://arxiv.org/abs/1912.03458摘要轻量级权重卷积神经网络(CNN)由于其较低的计算预算限制了CNN的深度(卷积层的数量)和宽度(通道的数量),因此性能下降,导致特征表达能力有限。为了解决这个问题,提出了动态卷积,一种在不增加网络深度或宽度的情况下增加模型复杂性的新设计。动态卷积不是在每层使用单个卷积核,而是基于其注意力机制...

2021-09-01 21:24:18 2507 11

原创 2021 CVPR | DEKR自适应卷积用于关键点检测(keras实现)

from keras.layers import Layer, Conv2Dimport tensorflow as tfclass AdaptConv2d(Layer): def __init__(self, outc, kernel_size=3, stride=1, bias=True, modulation=False): """ Args: modulation (bool, optional): If True, Modu.

2021-08-22 10:43:37 2850 5

原创 ICCV 2021 | 4行代码的残差注意力提升多标签分类!!!

南京大学Residual Attention: A Simple but Effective Method for Multi-Label Recognitionpaper:https://arxiv.org/abs/2108.02456摘要多标签图像识别是一项具有挑战性的计算机视觉实用任务。然而,这一领域的往往发展的特点是使用复杂的方法、大量的计算和缺乏直观的解释。为了有效地捕获来自不同类别的对象所占据的不同空间区域,提出了一个极其的简单模块,命名为类特定的残余注意(CSRA)。CSR..

2021-08-15 15:21:38 1821

原创 2021刷新COCO和Cityscapes | Polarized Self-Attention:极化自注意力机制(keras实现)

Polarized Self-Attention: Towards High-quality Pixel-wise Regressionpaper:https://arxiv.org/pdf/2107.00782.pdfcode:https://github.com/DeLightCMU/PSAdef _PSA(x, mode='p'): context_channel = spatial_pool(x, mode) if mode == 'p': con...

2021-08-03 20:48:30 3040 1

原创 WACV 2020 | ULSAM: 超轻量级子空间注意力机制(keras实现)

def _ULSAM(inputs, num_splits=4): channel_axis = 1 if K.image_data_format() == 'channels_first' else -1 sub_feat = Lambda(lambda x: tf.split(x, num_splits, axis=channel_axis))(inputs) features = [] for i in range(num_splits): x = ..

2021-08-02 21:36:34 2499

原创 浙大 | FcaNet:频域通道注意力机制(keras实现)

paper:http://arxiv.org/abs/2012.11879code:https://github.com/dcdcvgroup/FcaNet这篇论文,将GAP推广到一种更为一般的2维的离散余弦变换(DCT)形式,通过引入更多的frequency analysis重新考虑通道的注意力。摘要注意机制,特别是通道注意,在计算机视觉领域取得了巨大的成功。许多工作集中在如何设计有效的通道注意机制,而忽略了一个基本问题,即通道注意机制使用标量来表示通道,这由于大量信息损失而困难。在这项工

2021-07-31 10:37:57 3883 11

原创 CVPR 2021 | DMSANet:双多尺度注意力机制

paper:https://arxiv.org/pdf/2106.08382.pdfcode:https://github.com/abhinavsagar/DMSANet双多尺度注意力网络(DMSANet)在图像分类、目标检测和实例分割上均适用,性能优于EPSANet、FcaNet和SENet等网络摘要注意机制最近在计算机视觉领域很受欢迎。为了提高网络的性能,已经做了许多工作,尽管它几乎总是会增加计算复杂度。文章提出了一种新的注意模块,它不仅性能最好,而且具有较少的参数。文章中的注意模块可

2021-07-30 16:39:31 8341 8

原创 ICML 2021 | SimAM 无参注意力机制!(keras实现)

中山大学paper:http://proceedings.mlr.press/v139/yang21o/yang21o.pdfcode:https://github.com/ZjjConan/SimAM

2021-07-30 14:43:49 5223 7

原创 2021 CVPR | EPSANet一种金字塔拆分注意力机制(keras实现)

paper:https://arxiv.org/pdf/2105.14447v1.pdfcode:https://github.com/murufeng/EPSANet摘要近年来,研究表明,通过加入注意力机制可以有效地提高深度卷积神经网络的性能。本文提出了一种新的轻量级和有效的注意方法——金字塔拆分注意(PSA)模块。通过用ResNet瓶颈块中的PSA模块代替3x3卷积,得到了一种名为有效金字塔拆分注意(EPSA)的新表示块。EPSA模块可以很容易地作为一个即插即用组件添加到一个完善的主干网络中

2021-07-29 16:59:36 7892 21

原创 CVPR 2021 | Coordinate Attention for Efficient Mobile Network Design注意力机制再下一城(Keras实现)

paper:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG

2021-06-08 21:40:28 2228 17

原创 深度学习中的归一化方法总结(BN、LN、IN、GN、SN、PN、BGN、CBN、FRN、SaBN)

训练深度网络时,神经网络隐层参数更新会导致网络输出层输出数据的分布发生变化,而且随着层数的增加,根据链式规则,这种偏移现象会逐渐被放大。这对于网络参数学习来说是个问题:因为神经网络本质学习的就是数据分布(representation learning),如果数据分布变化了,神经网络又不得不学习新的分布。为保证网络参数训练的稳定性和收敛性,往往需要选择比较小的学习速率(learning rate),同时参数初始化的好坏也明显影响训练出的模型精度,特别是在训练具有饱和非线性(死区特性)的网络。...

2021-06-08 20:46:38 9641

原创 CVPR 2021 | RepVGG: Making VGG-style ConvNets Great Again阅读分享(keras实现)

RepVGG: Making VGG-style ConvNets Great Againpaper:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG摘要提出了一个简单而强大的卷积神经网络结构,它具有一个类似VGG的推理时间体,只由3×3卷积和ReLU组成,而训练时间模型有一个多分支拓扑。训练时间和推理时间体系结构的解耦是通过结构再参数化技术实现的,因此该模型被命名为RepVGG。在Ima

2021-06-06 12:17:27 644 1

原创 CVPR 2021 | Diverse Branch Block(ACNetV2)论文阅读分享(keras实现)

Diverse Branch Block: Building a Convolution as an Inception-like Unit 旷视——2021CVPRpaper:https://arxiv.org/pdf/2103.13425.pdfcode:https://github.com/DingXiaoH/DiverseBranchBlock摘要提出了一个卷积神经网络(ConvNet)的通用构建块,以提高没有任何推理时间成本的性能。该块被命名为“不同分支块”(DBB),它通过结

2021-06-06 11:16:38 1806

原创 ICCV 2019 | ACNet论文阅读分析(keras实现)

ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks 清华——ICCV2019paper:https://arxiv.org/pdf/1908.03930.pdfcode:https://github.com/DingXiaoH/ACNet摘要通过使用一维非对称卷积来加强方形卷积核的特征表达,可以让训练精度更高。在模型推理时,等价地将ACNet转换为相同

2021-06-06 10:26:15 719

原创 CVPR 2021 | Activate or Not: Learning Customized Activation阅读分享(keras实现)

Activate or Not: Learning Customized Activation阅读分享摘要 提出了一个简单的,有效的,和一般的激活函数ACON,它学习是否需要激活神经元。发现Swish,最近流行的NAS搜索激活,可以解释为对ReLU的一个平滑近似。同样地,将更一般的Maxout方法近似ACON方法,并使Swish成为ACON的一个特殊情况。meta-ACON学习了优化非线性和线性之间的参数切换,并提供了一个新的设计空间。通过简单地改变激活函数,证明了它在小模型和高度优化的大模型上的有效性

2021-05-23 16:46:14 620 1

FISTA算法实现

FISTA算法实现

2016-09-30

VS2013下各种软件的库文件加载

这篇文章关于在vs2013环境下搭建Armadillo+Openblas,MATLAB,openCV3.0,以及关于如何发布程序的操作说明。

2016-08-16

STM32F103VET6-frequency-measurement-

该程序是基于STM32外部触发计数器的测频程序代码,可以测量的范围是0-100MHZ误差1 不到.使用定时器2,可以根据开发文档自行修改。

2016-08-15

基于MSP430G2553的简易信号发生器

基于MSP430G2553,该程序产生正弦波,三角波,锯齿波。频率是0~100Hz

2013-07-19

STM32F103VET6原理图

STM32F103VET6原理图.wps

2013-07-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除