xdhe1216
码龄11年
关注
提问 私信
  • 博客:106,870
    社区:660
    107,530
    总访问量
  • 21
    原创
  • 1,966,772
    排名
  • 96
    粉丝
  • 0
    铁粉

个人简介:人工智能算法工程师

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:湖南省
  • 加入CSDN时间: 2013-07-18
博客简介:

u011447962的博客

查看详细资料
个人成就
  • 获得124次点赞
  • 内容获得123次评论
  • 获得896次收藏
  • 代码片获得605次分享
创作历程
  • 1篇
    2022年
  • 20篇
    2021年
成就勋章
TA的专栏
  • 深度学习之模型压缩和加速
    5篇
  • 深度学习之注意力机制
    11篇
  • Keras
    1篇
  • 深度学习之卷积篇
    2篇
  • 深度学习之归一化方法
    1篇
  • 深度学习之激活函数篇
    1篇
兴趣领域 设置
  • 数据结构与算法
    排序算法推荐算法
  • 人工智能
    opencvtensorflowpytorchnlpscikit-learn聚类集成学习迁移学习分类回归
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

182人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

CVPR 2022 | RepLKNet:采用31×31大kernel的CNN网络,性能超越Swin Transformer

Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs paper:​https://arxiv.org/pdf/2203.06717.pdf​code:https://github.com/megvii-research/RepLKNet该篇论文论述了卷积核的kernelsize可以选择多大。25x25就很好,31x31甚至更好。清华大学丁霄汉继RepVGG后提出了一种大量采用超大卷积核的模型...
原创
发布博客 2022.03.15 ·
4918 阅读 ·
1 点赞 ·
1 评论 ·
21 收藏

2021年12月提出的一种全局注意力机制方法 | 即插即用

Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactionspaper:https://arxiv.org/pdf/2112.05561.pdf摘要人们研究了多种注意机制,以提高各种计算机视觉任务的性能。然而,先前的方法忽略了保留通道和空间方面的信息以增强跨维度交互的意义。因此,论文提出了一种全局注意机制,通过减少信息的损失和提高全局特征的交互,提高深度神经网...
原创
发布博客 2021.12.26 ·
15164 阅读 ·
16 点赞 ·
16 评论 ·
119 收藏

Keras高级API:实现自定义函数和层

问题分析Keras是一个高度封装的库,它的优点是可以进行快速的建模,缺点是它不处理底层运算,如张量内积等。Keras提供众多常见的已编写好的函数和层对象,例如常见的K.reshape函数、K.sigmoid函数、卷积层、池化层等,可以直接通代码调用。由于新的论文中使用的算法比较新颖、涉及的方法千方百态,Keras不可能涉及地面面俱到。此外,在实现算法过程中,往往会根据具体项目的一些独特性设计一些函数和层。所以,在这个时候,应该在算法中使用Keras自定义一些函数和层。解决方...
原创
发布博客 2021.12.16 ·
2199 阅读 ·
0 点赞 ·
1 评论 ·
11 收藏

2022 AAAI | FLANet 全注意力网络用于语义分割

香港中文大学Fully Attentional Network for Semantic Segmentation paper:https://arxiv.org/pdf/2112.04108.pdf摘要最近的非局部自注意方法(non-local)已被证明在捕获语义分割的长期依赖关系方面是有效的。这些方法通常形成一个相似的通道特征图(通过压缩空间维度)或空间特征图(通过压缩通道)来描述沿通道或空间维度的特征关系。然而,这种做法倾向于在其他维度上压缩特征依赖性,从而导致注...
原创
发布博客 2021.12.09 ·
6271 阅读 ·
3 点赞 ·
0 评论 ·
38 收藏

2021NIPS | 即插即用,标准化注意力机制NAM

NAM: Normalization-based Attention Modulepaper:https://arxiv.org/pdf/2111.12419.pdfcode:https://github.com/Christian-lyc/NAM摘要注意机制是近年来人们普遍关注的研究兴趣之一。它帮助深度神经网络抑制较不显著的像素或通道。以往的许多研究都集中于通过注意力操作来捕捉显著特征。这些方法成功地利用了不同特征维度上的互信息。然而,它们没有考虑到权重的贡献因素,...
原创
发布博客 2021.12.01 ·
10646 阅读 ·
9 点赞 ·
13 评论 ·
68 收藏

ICCV 2021 | 性能炸裂的通道剪枝算法ResRep(Keras复现)

# -*- coding: utf-8 -*-"""CompactorLayer layers."""from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_functionfrom keras import activationsfrom keras import initializersfrom keras import regularizers.
原创
发布博客 2021.09.29 ·
4195 阅读 ·
6 点赞 ·
8 评论 ·
36 收藏

CVPR 2020| Dynamic Convolution动态卷积(keras实现)

微软研究院Dynamic Convolution: Attention over Convolution Kernelspaper:https://arxiv.org/abs/1912.03458摘要轻量级权重卷积神经网络(CNN)由于其较低的计算预算限制了CNN的深度(卷积层的数量)和宽度(通道的数量),因此性能下降,导致特征表达能力有限。为了解决这个问题,提出了动态卷积,一种在不增加网络深度或宽度的情况下增加模型复杂性的新设计。动态卷积不是在每层使用单个卷积核,而是基于其注意力机制...
原创
发布博客 2021.09.01 ·
3076 阅读 ·
4 点赞 ·
12 评论 ·
22 收藏

2021 CVPR | DEKR自适应卷积用于关键点检测(keras实现)

from keras.layers import Layer, Conv2Dimport tensorflow as tfclass AdaptConv2d(Layer): def __init__(self, outc, kernel_size=3, stride=1, bias=True, modulation=False): """ Args: modulation (bool, optional): If True, Modu.
原创
发布博客 2021.08.22 ·
3126 阅读 ·
4 点赞 ·
5 评论 ·
23 收藏

ICCV 2021 | 4行代码的残差注意力提升多标签分类!!!

南京大学Residual Attention: A Simple but Effective Method for Multi-Label Recognitionpaper:https://arxiv.org/abs/2108.02456摘要多标签图像识别是一项具有挑战性的计算机视觉实用任务。然而,这一领域的往往发展的特点是使用复杂的方法、大量的计算和缺乏直观的解释。为了有效地捕获来自不同类别的对象所占据的不同空间区域,提出了一个极其的简单模块,命名为类特定的残余注意(CSRA)。CSR..
原创
发布博客 2021.08.15 ·
2002 阅读 ·
3 点赞 ·
0 评论 ·
14 收藏

2021刷新COCO和Cityscapes | Polarized Self-Attention:极化自注意力机制(keras实现)

Polarized Self-Attention: Towards High-quality Pixel-wise Regressionpaper:https://arxiv.org/pdf/2107.00782.pdfcode:https://github.com/DeLightCMU/PSAdef _PSA(x, mode='p'): context_channel = spatial_pool(x, mode) if mode == 'p': con...
原创
发布博客 2021.08.03 ·
3491 阅读 ·
9 点赞 ·
1 评论 ·
32 收藏

WACV 2020 | ULSAM: 超轻量级子空间注意力机制(keras实现)

def _ULSAM(inputs, num_splits=4): channel_axis = 1 if K.image_data_format() == 'channels_first' else -1 sub_feat = Lambda(lambda x: tf.split(x, num_splits, axis=channel_axis))(inputs) features = [] for i in range(num_splits): x = ..
原创
发布博客 2021.08.02 ·
2743 阅读 ·
4 点赞 ·
0 评论 ·
31 收藏

浙大 | FcaNet:频域通道注意力机制(keras实现)

paper:http://arxiv.org/abs/2012.11879code:https://github.com/dcdcvgroup/FcaNet这篇论文,将GAP推广到一种更为一般的2维的离散余弦变换(DCT)形式,通过引入更多的frequency analysis重新考虑通道的注意力。摘要注意机制,特别是通道注意,在计算机视觉领域取得了巨大的成功。许多工作集中在如何设计有效的通道注意机制,而忽略了一个基本问题,即通道注意机制使用标量来表示通道,这由于大量信息损失而困难。在这项工
原创
发布博客 2021.07.31 ·
4617 阅读 ·
5 点赞 ·
11 评论 ·
37 收藏

CVPR 2021 | DMSANet:双多尺度注意力机制

paper:https://arxiv.org/pdf/2106.08382.pdfcode:https://github.com/abhinavsagar/DMSANet双多尺度注意力网络(DMSANet)在图像分类、目标检测和实例分割上均适用,性能优于EPSANet、FcaNet和SENet等网络摘要注意机制最近在计算机视觉领域很受欢迎。为了提高网络的性能,已经做了许多工作,尽管它几乎总是会增加计算复杂度。文章提出了一种新的注意模块,它不仅性能最好,而且具有较少的参数。文章中的注意模块可
原创
发布博客 2021.07.30 ·
9147 阅读 ·
4 点赞 ·
8 评论 ·
94 收藏

ICML 2021 | SimAM 无参注意力机制!(keras实现)

中山大学paper:http://proceedings.mlr.press/v139/yang21o/yang21o.pdfcode:https://github.com/ZjjConan/SimAM
原创
发布博客 2021.07.30 ·
5518 阅读 ·
4 点赞 ·
7 评论 ·
35 收藏

2021 CVPR | EPSANet一种金字塔拆分注意力机制(keras实现)

paper:https://arxiv.org/pdf/2105.14447v1.pdfcode:https://github.com/murufeng/EPSANet摘要近年来,研究表明,通过加入注意力机制可以有效地提高深度卷积神经网络的性能。本文提出了一种新的轻量级和有效的注意方法——金字塔拆分注意(PSA)模块。通过用ResNet瓶颈块中的PSA模块代替3x3卷积,得到了一种名为有效金字塔拆分注意(EPSA)的新表示块。EPSA模块可以很容易地作为一个即插即用组件添加到一个完善的主干网络中
原创
发布博客 2021.07.29 ·
8360 阅读 ·
10 点赞 ·
21 评论 ·
80 收藏

CVPR 2021 | Coordinate Attention for Efficient Mobile Network Design注意力机制再下一城(Keras实现)

paper:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG
原创
发布博客 2021.06.08 ·
2305 阅读 ·
11 点赞 ·
17 评论 ·
39 收藏

深度学习中的归一化方法总结(BN、LN、IN、GN、SN、PN、BGN、CBN、FRN、SaBN)

训练深度网络时,神经网络隐层参数更新会导致网络输出层输出数据的分布发生变化,而且随着层数的增加,根据链式规则,这种偏移现象会逐渐被放大。这对于网络参数学习来说是个问题:因为神经网络本质学习的就是数据分布(representation learning),如果数据分布变化了,神经网络又不得不学习新的分布。为保证网络参数训练的稳定性和收敛性,往往需要选择比较小的学习速率(learning rate),同时参数初始化的好坏也明显影响训练出的模型精度,特别是在训练具有饱和非线性(死区特性)的网络。...
原创
发布博客 2021.06.08 ·
14074 阅读 ·
28 点赞 ·
0 评论 ·
164 收藏

CVPR 2021 | RepVGG: Making VGG-style ConvNets Great Again阅读分享(keras实现)

RepVGG: Making VGG-style ConvNets Great Againpaper:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG摘要提出了一个简单而强大的卷积神经网络结构,它具有一个类似VGG的推理时间体,只由3×3卷积和ReLU组成,而训练时间模型有一个多分支拓扑。训练时间和推理时间体系结构的解耦是通过结构再参数化技术实现的,因此该模型被命名为RepVGG。在Ima
原创
发布博客 2021.06.06 ·
700 阅读 ·
0 点赞 ·
1 评论 ·
4 收藏

CVPR 2021 | Diverse Branch Block(ACNetV2)论文阅读分享(keras实现)

Diverse Branch Block: Building a Convolution as an Inception-like Unit 旷视——2021CVPRpaper:https://arxiv.org/pdf/2103.13425.pdfcode:https://github.com/DingXiaoH/DiverseBranchBlock摘要提出了一个卷积神经网络(ConvNet)的通用构建块,以提高没有任何推理时间成本的性能。该块被命名为“不同分支块”(DBB),它通过结
原创
发布博客 2021.06.06 ·
2166 阅读 ·
1 点赞 ·
0 评论 ·
11 收藏

ICCV 2019 | ACNet论文阅读分析(keras实现)

ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks 清华——ICCV2019paper:https://arxiv.org/pdf/1908.03930.pdfcode:https://github.com/DingXiaoH/ACNet摘要通过使用一维非对称卷积来加强方形卷积核的特征表达,可以让训练精度更高。在模型推理时,等价地将ACNet转换为相同
原创
发布博客 2021.06.06 ·
768 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏
加载更多