自在极意功登峰造极
码龄4年
关注
提问 私信
  • 博客:93,644
    93,644
    总访问量
  • 50
    原创
  • 41,567
    排名
  • 631
    粉丝
  • 35
    铁粉
  • 学习成就
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:山西省
  • 加入CSDN时间: 2020-10-24
博客简介:

qq_51872445的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    4
    当前总分
    530
    当月
    24
个人成就
  • 获得692次点赞
  • 内容获得55次评论
  • 获得1,137次收藏
  • 代码片获得3,450次分享
创作历程
  • 45篇
    2024年
  • 5篇
    2023年
成就勋章
TA的专栏
  • 深度学习
    16篇
  • Python基础
    29篇
  • Anaconda
    4篇
  • 机器学习
    1篇
兴趣领域 设置
  • 人工智能
    opencv语音识别计算机视觉机器学习深度学习神经网络自然语言处理图像处理数据分析
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

186人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

详解注意力机制(Attention Mechanism),自注意力(Self-Attention),多头注意力(MultiHeadAttention)

一、注意力机制(Attention Mechanism)注意力机制(Attention Mechanism)是深度学习领域的一个重要概念,最初在自然语言处理(NLP)中被引入,用于改进序列到序列(seq2seq)模型的性能,特别是在机器翻译任务中。这种机制允许模型在处理输入序列的不同部分时,能够“关注”或“聚焦”于其中更重要的部分,而不是平等地对待所有输入元素。参考资料书籍Z. Li, A. Gan, et al., “动手学深度学习 第二版,” 电子工业出版社, 2021.网络文
原创
发布博客 2024.08.15 ·
2922 阅读 ·
38 点赞 ·
0 评论 ·
30 收藏

经典CNN模型(十三):EfficientNetV2(PyTorch详细注释版)

EfficientNet V2 是 EfficientNet 系列的第二代模型,由谷歌的研究人员在 2021 年的 ICML 会议上提出。EfficientNet V2 继承了EfficientNet V1的核心理念,即复合缩放方法(Compound Scaling),但在此基础上进行了多项改进,以实现更小的模型体积、更快的训练速度和更好的参数效率。
原创
发布博客 2024.08.15 ·
2875 阅读 ·
24 点赞 ·
0 评论 ·
59 收藏

经典CNN模型(十二):EfficientNetV1(PyTorch详细注释版)

EfficientNet 是 Google 提出的一种高效的神经网络架构,它的核心思想是通过比例缩放网络的宽度(通道数)、高度和深度(层数)来平衡计算资源和准确性。EfficientNet 使用了一种称为“复合缩放法”(compound scaling method),这种方法基于模型规模和训练数据量动态调整网络的宽度、高度和深度,以获得最佳性能。这种缩放方法使得模型能够根据可用的计算资源和数据量自适应地调整自身,从而在不同的硬件和数据集上都能达到较好的效果。
原创
发布博客 2024.07.28 ·
1205 阅读 ·
10 点赞 ·
0 评论 ·
26 收藏

经典CNN模型(十一):ShuffleNetV2(PyTorch详细注释版)

ShuffleNet V2 在保留了原版 ShuffleNet 的高效性的同时,通过引入自适应分组卷积、多尺度特征融合和通道剪枝等方法,提高了模型的性能和灵活性。这种改进使得 ShuffleNet V2 更适用于资源受限的设备,如手机和嵌入式系统。
原创
发布博客 2024.07.28 ·
860 阅读 ·
6 点赞 ·
0 评论 ·
16 收藏

经典CNN模型(十):ShuffleNetV1(PyTorch详细注释版)

ShuffleNet V1 是一种轻量级的卷积神经网络架构,通过使用分组卷积和通道重排技术,在保持较高分类准确率的同时,极大地降低了模型的计算复杂度和内存占用。这种设计使其成为在资源受限设备上运行的理想选择。分组卷积是一种高效的卷积运算方式,它将输入通道分成多个组,并在每个组内独立进行卷积运算。这种做法减少了计算量和参数数量,尤其是在处理高分辨率图像时效果显著。通道混洗是一种特殊的操作,用于在分组卷积之后混合不同组之间的信息。它的目的是打破分组卷积导致的信息隔离,提高模型的表示能力。
原创
发布博客 2024.07.27 ·
477 阅读 ·
4 点赞 ·
0 评论 ·
9 收藏

经典CNN模型(九):MobileNetV3(PyTorch详细注释版)

为了进一步减少延迟时间,MobileNetV3 优化了模型的最后阶段,通过减少不必要的操作,例如减少卷积层的数量,这在保持模型精度的同时显著降低了计算量和运行时间。
原创
发布博客 2024.07.27 ·
3147 阅读 ·
27 点赞 ·
0 评论 ·
51 收藏

经典CNN模型(八):MobileNetV2(PyTorch详细注释版)

作者通过实验展示了 ReLU 激活函数在高维空间中对低维流形的影响。他们首先将一个二维矩阵(channel=1)通过矩阵T升维到更高维度,接着应用 ReLU 激活函数,然后用T的逆矩阵将其还原回二维空间。当T的维度较低(如 2 或 3)时,还原后的二维矩阵会丢失很多信息。然而,随着维度的增加,信息丢失逐渐减少。因此,为了避免 ReLU 激活函数对低维特征造成过多信息损失,倒置残差结构选择使用线性激活函数(即linear bottleneck),这样可以在输出时保持尽可能多的信息完整性。
原创
发布博客 2024.07.26 ·
3065 阅读 ·
30 点赞 ·
0 评论 ·
39 收藏

经典CNN模型(七):MobileNetV1(PyTorch详细注释版)

在传统卷积神经网络因内存和运算量庞大而难以适配移动及嵌入式设备的背景下,2017 年,Google 团队应运推出了 MobileNetV1,这是一种专为资源受限环境设计的轻量级深度学习模型。相较于传统网络如 VGG16,MobileNetV1 在仅牺牲 0.9%的准确率的前提下,实现了模型参数精简至 VGG16 的 1/32,大幅削减了计算复杂度,从而在确保较高识别精度的同时,特别适合在移动设备和嵌入式系统上高效运行。
原创
发布博客 2024.07.26 ·
1184 阅读 ·
10 点赞 ·
1 评论 ·
14 收藏

经典CNN模型(六):ResNeXt(PyTorch详细注释版)

ResNeXt(Residual Networks with Next)是一种深度学习模型,它是在经典的ResNet(残差网络)的基础上发展起来的,,旨在通过引入“cardinality”(基数)的概念来提高网络的性能和效率。ResNeXt 由 Facebook AI Research 团队提出,首次出现在 2016 年的论文《Aggregated Residual Transformations for Deep Neural Networks》中。
原创
发布博客 2024.07.25 ·
1279 阅读 ·
26 点赞 ·
1 评论 ·
32 收藏

经典CNN模型(五):ResNet(PyTorch详细注释版)

ResNet,即残差神经网络(Residual Neural Network),是由何凯明(Kaiming He)、张祥雨、任少卿和孙剑在 2015 年提出的一种深度学习架构,旨在解决深度神经网络中的退化问题。在传统的深度神经网络中,随着网络层数的增加,训练误差会逐渐增大,这种现象被称为“退化”。ResNet 通过引入一种特殊的残差学习框架来解决这一问题,允许网络学习更深层次的结构,而不遭受退化问题的影响。
原创
发布博客 2024.07.25 ·
3192 阅读 ·
46 点赞 ·
0 评论 ·
63 收藏

经典CNN模型(四):GoogLeNet(PyTorch详细注释版)

GoogLeNet,也被称为 Inception-v1,是由 Google 的研究人员设计的一种深度卷积神经网络(CNN),并在 2014 年的 ImageNet 大规模视觉识别挑战赛(ILSVRC 2014)中获得了第一名。GoogLeNet 的主要设计目标是在不显著增加计算成本的前提下,提高网络的深度和宽度,从而提高模型的准确率。
原创
发布博客 2024.07.24 ·
2623 阅读 ·
36 点赞 ·
1 评论 ·
67 收藏

经典CNN模型(三):VGG(PyTorch详细注释版)

我们常用的是 D 配置,即 VGG-16,如上图,VGG-16 的 “16” 来源于网络中含有的 16 个有可学习权重的层,其中包括 13 个卷积层和 3 个全连接层。所有的卷积层都使用 3x3 大小的卷积核,所有的池化层都使用 2x2 的窗口和步幅为 2,这样可以将特征图的尺寸减半。
原创
发布博客 2024.07.24 ·
3107 阅读 ·
24 点赞 ·
0 评论 ·
60 收藏

经典CNN模型(二):AlexNet(PyTorch详细注释版)

AlexNet 是深度学习历史上一个非常重要的里程碑,它代表了深度卷积神经网络(Convolutional Neural Network, CNN)的一次重大突破。AlexNet 由多伦多大学的Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton 设计,并在 2012 年的 ImageNet 大规模视觉识别挑战赛(ILSVRC)中赢得了冠军。这一胜利显著降低了图像分类的错误率,从而证明了深度学习在处理复杂视觉任务上的潜力。
原创
发布博客 2024.07.23 ·
1369 阅读 ·
10 点赞 ·
0 评论 ·
27 收藏

经典CNN模型(一):LeNet(PyTorch详细注释版)

LeNet 神经网络由深度学习三巨头之一的 Yan LeCun 提出,他同时也是卷积神经网络 (CNN,Convolutional Neural Networks)之父。LeNet 主要用来进行手写字符的识别与分类,并在美国的银行中投入了使用。LeNet 的实现确立了 CNN 的结构,现在神经网络中的许多内容在 LeNet 的网络结构中都能看到,例如卷积层,Pooling 层,ReLU 层。
原创
发布博客 2024.07.23 ·
1239 阅读 ·
16 点赞 ·
0 评论 ·
28 收藏

卷积神经网络基础2

以三层的神经网络为例,如下图:其中,第一层为输入层,包含x1​和x2​两个节点;中间层为隐藏层,包含σ1​σ2​σ3​三个节点;最后一层为输出层,包含y1​和y2​两个节点。另外,ω111​代表权重,其上标1中,1代表所在的层数;其下标11中,第一个1代表上一层的第1个节点,第二个1代表本层的第1个节点;最后,b代表偏置。具体而言,输出层y1​和y2​y1​ω112​⋅σ1​x1​⋅ω111​x。
原创
发布博客 2024.06.21 ·
926 阅读 ·
17 点赞 ·
0 评论 ·
14 收藏

卷积神经网络基础1

输入图片大小 W × W卷积核(Filter)大小 F × F步长 SPadding操作的像素数 P输出尺寸W2×P−FS1(3)\text{输出尺寸} = \frac{\text{W} + 2 \times \text{P} - \text{F}}{\text{S}} + 1\tag{3}输出尺寸SW2×P−F​13或输出尺寸输入尺寸2×填充−卷积核尺寸步幅1(4)
原创
发布博客 2024.05.29 ·
1212 阅读 ·
20 点赞 ·
0 评论 ·
31 收藏

Python基础——类6(模块、包、标准库)

模块化指将一个完整的程序分解为一个一个小的模块,通过将模块组合,来搭建出一个完整的程序在Python中一个py文件就是一个模块,要想创建模块,实际上就是创建一个python文件在一个模块中引入外部模块可以引入同一个模块多次,但是模块的实例只会创建一个import可以在程序的任意位置调用,但是一般情况下,import语句都会统一写在程序的开头在每一个模块内部都有一个__name__属性,通过这个属性可以获取到模块的名字。
原创
发布博客 2024.05.25 ·
1060 阅读 ·
17 点赞 ·
0 评论 ·
14 收藏

Python基础——类5(垃圾回收、特殊方法)

【代码】Python基础——类5(垃圾回收、特殊方法)
原创
发布博客 2024.05.25 ·
170 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

Python基础——类4(多态、[类属性、实例属性 、类方法、实例方法、静态方法])

之所以一个对象能通过len()来获取长度,是因为对象中具有一个特殊方法__len__,换句话说,只要对象中具有__len__特殊方法,就可以通过len()来获取它的长度。如下代码实例,对于say_hello()这个函数来说,只要对象中含有name属性,它就可以作为参数传递,这个函数并不会考虑对象的类型,只要有name属性即可。
原创
发布博客 2024.05.25 ·
315 阅读 ·
5 点赞 ·
0 评论 ·
5 收藏

Python基础——类3(继承、重写、super、多重继承)

有一个类,能够实现我们需要的大部分功能,但是不能实现全部功能,如何能让这个类来实现全部的功能呢?通过继承可以直接让子类获取到父类的方法或属性,避免编写重复性的代码,并且也符合OCP原则,所以我们经常需要通过继承来对一个类进行扩展。
原创
发布博客 2024.05.25 ·
909 阅读 ·
25 点赞 ·
0 评论 ·
6 收藏
加载更多