为什么卷积可以提取特征?

做深度学习的同学对卷积肯定都不陌生了。

我曾在很多文章中解释过这个算法,卷积算法之所以如此重要,是因为我们可以把它看作是一个特征提取器

如何理解这个特征提取器呢?

我们先看下卷积的核心运算。

可以回想一下在介绍卷积的时候,描述的卷积运算的场景是:一个窗口在图片上滑动,窗口中的数值是卷积核的参数,也就是权值。

图片

和矩阵乘法一样,卷积在每一次扫描的过程中,完成的是权值数据和输入图像的乘累加运算。

这个过程是乘累加运算(点击链接学到更多),乘累加便可以理解为特征提取和融合。

如此一来,卷积的多层循环以及多个卷积核,便可以认为是一种特征提取器。

在很多神经网络,都可以看到以卷积为主的骨干网络(BackBone Network)。

比如大名鼎鼎的 Yolo 系列,会将以卷积为主的 resnet 网络当做自己的骨干网络,其目的就是为了使用 resnet 进行图片的特征提取。

然后完成后面的图像检测功能。

图片

图源公众号:江大白

再比如,之前介绍小米汽车的占用网络时,可以看到在特斯拉的占用网络中,也存在 resnet 作为特征提取器的身影。

图片

上图是特斯拉占用网络架构图,红框为resnet为主的特征提取器。

这是因为 resnet 中有大量的设计好的卷积层,因此,大部分将 resnet 作为骨干网络的神经网络,都是把 resnet 这一部分结构当做一个图像的特征提取器来使用。

而网络中的其他结构,是在对 resnet 提取出来的特征进行更进一步的操作。

看到这,是不是就对卷积这一算法有了一个新的认识了呢?


我的Transformer专栏来啦-CSDN博客文章浏览阅读566次,点赞12次,收藏5次。现在很多主流的大语言模型,比如chatGPT都是基于该架构进行的模型设计,可以说Transformer顶起了AI的半壁江山。对于这些有些枯燥的概念,有些乏味的数学表达,我会尽可能说的直白和通俗易懂,打通理解Transformer的最后一公里。我会在本公众号进行文章的首发,相关文章会添加标签“Transformer专栏”,可点击文章左下角的标签查看所有文章。巧的是,下班路上刚手敲完大纲,晚上一个小伙伴来咨询学习LLM的事情,问我之前写的《五一节前吹的牛,五一期间没完成,今天忙里偷闲,给完成了。https://blog.csdn.net/dongtuoc/article/details/138633936?spm=1001.2014.3001.5501

  • 14
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

董董灿是个攻城狮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值