【OpenMMLab通用视觉框架 AI训练营 学习笔记 DAY(二)图像分类与基础视觉模型】

学习内容:

本次学习,正课部分由王若晖老师进行讲解,最后的答疑部分由张子豪(B站 同济子豪兄)进行课后答疑讲解。课程链接放在这里的,有需要的可以直接点击,或者打开哔哩哔哩OpenMMLab主页查看。https://www.bilibili.com/video/BV1js4y1W7CN/?spm_id_from=333.337.search-card.all.click

1. 图像分类基础知识

了解了,什么是图像分类。如下图所示:
在这里插入图片描述
并且如何用数学进行 表示这个问题
在这里插入图片描述
知道了视觉任务的难点是,图像的内容是像素整体呈现出的结果,和个别像素的值没有直接关联,难以遵循具体的规则设计算法。并且讲解了图像处理由传统方法进阶到深度学习的过程,并且详细的讲解了历年再ImageNet图像识别挑战赛中的优秀算法。其中跨时代的是AlexNet的诞生(2012年)也标志着深度学习时代的开始。

2. 卷积神经网络

说到深度学习,就不得不提卷积神经网络。上面我们提到的AlexNet(2012),他就是利用卷积神经网络,模型如下
在这里插入图片描述
之后还有Going Deeper(2012~2014)增加卷积的层数以获取更高的精度;VGG(2014)将大尺寸的卷积拆解为多层3*3的卷积,相同的感受野、更少的参数量、更多的层数和表达能力。
在这里插入图片描述

虽然在一定范围内增加模型层数可以增加分类正确率,但是在模型层数达到一定层数后,分类正确率不增反降。我们对其猜想:虽然深层网络有潜力达到更高的精度,但常规的优化算法难以找到这个更优的模型即,让新增加的卷积层拟合一个近似恒等映射,恰好可以让浅层网络变好一点。这个时候就引入了残差网络模型。
在这里插入图片描述
在这里插入图片描述
为了减少计算量,残差模块也有不同的方式
在这里插入图片描述
后续课程讲到的都是一些降低模型参数两和计算量的方法
在这里插入图片描述
如GoogLeNet 使用不同大小的卷积核,来进行减少运算开销
在这里插入图片描述
在这之后,还提出了一种减少运行算开销的方式,叫做可分离卷积,即将常规卷积分为逐层卷积和逐点卷积,降低参数量和计算量
在这里插入图片描述
后面介绍了上面是注意力机制–Attention Mechanism,简单来说,就是卷积核并不是一直不变的,而是根据你输入的图片进行调整,从而抓取更重要的信息,这刚开始是运用于语言学方面的。
在这里插入图片描述

3.模型学习

讲解了监督学习,并且介绍了其工作是基于损失函数进行评判的。后面还引入了一些最优化算法如随机梯度下降呀什么的,进行优化(寻找初始参数和权重呀什么的),在模型不变的情况下,提高分类精确率。后面还提了自监督学习。总结如下

在这里插入图片描述


MMClassification:

简单介绍了图像分类工具包MMClassification
在这里插入图片描述
以及如何安装配置相关环境和利用python推理API。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值