OpenMMLAB AI实战营第二课笔记

卷积神经网络介绍

AlexNet (2012)

在这里插入图片描述

  • 第一个成功实现大规模图像的模型,在ImageNet 数据集上达到~85% 的top-5 准确率
  • 5 个卷积层,3 个全连接层,共有60M 个可学习参数
  • 使用ReLU 激活函数,大幅提高收敛速度
  • 实现并开源了cuda-convnet ,在GPU 上训练大规模神经网络在工程上成为可能

Going Deeper (2012~2014)

在这里插入图片描述

VGG (2014)

在这里插入图片描述

GoogLeNet (Inception v1, 2014)

残差网络ResNet (2015)

在这里插入图片描述

更强的图像分类模型

神经结构搜索Neural Architecture Search (2016+)

基本思路:借助强化学习等方法搜索表现最佳的网络
代表工作:NASNet (2017)、MnasNet (2018)、EfficientNet (2019) 、RegNet (2020) 等

Vision Transformers (2020+)

在这里插入图片描述
使用Transformer 替代卷积网络实现图像分类,使用更大的数据集训练,达到超越卷积网络的精度
代表工作:Vision Transformer (2020),Swin-Transformer (2021 ICCV 最佳论文)

ConvNeXt (2022)

在这里插入图片描述
将Swin Transformer 的模型元素迁移到卷积网络中,性能反超Transformer

图像分类& 视觉基础模型的发展

在这里插入图片描述

Swin Transformer (ICCV 2021 best paper)

在这里插入图片描述

  • Vision Transformer 的特征图是是直接下采样16 倍
    得到的,后面的特征图也是维持这个下采样率不变,
    缺少了传统卷积神经网络里不同尺寸特征图的层次化
    结构。所以,Swin Transformer 提出了分层结构
    (金字塔结构)Hierarchical Transformer。

  • 同时,相对于Vision Transformer 中直接对整个特征
    图进行Multi-Head Self-Attention,Swin
    Transformer 将特征图划分成了多个不相交的区域
    (Window),将Multi-Head Self-Attention 计算
    限制在窗口内,这样能够减少计算量的,尤其是在浅
    层特征图很大的时候。

  • 由于将Multi-Head Self-Attention 计算限制在窗口内,窗口与窗口之间无法进行信息传递。所以, Swin
    Transformer 又提出了Shifted Windows Multi-Head Self-Attention (SW-MSA) 的概念,即第𝑙 + 1 层的窗
    口分别向右侧和下方各偏移了半个窗口的位置。那么,这就让信息能够跨窗口传递。
    在这里插入图片描述

  • 通过4 个Stage 构建不同大小的特征图

  • 重复堆叠Swin Transformer Block:这里的Block 有两种结构,如图(b) ,一个使用了W-MSA 结
    构,一个使用了SW-MSA 结构。这两个结构成对使用,所以堆叠Swin Transformer Block 的个数
    都是偶数。
    在这里插入图片描述

MMClassification 介绍

代码仓库:https://github.com/open-mmlab/mmclassification
文档教程:https://mmclassification.readthedocs.io/en/latest/
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
人工智能研究中,状态空间法是一种基于解空间的问题表示和求解方法。该方法通过在可能的解空间内寻找一个解来求解问题。状态空间法以状态和算符为基础来表示和求解问题。在传统人工智能问题中,复杂的求解技术都离不开表示与搜索这两个方面的内容,其中状态空间表示是其中的一个重要概念。状态空间法采用试探搜索方法,在某个可能的解空间内寻找一个解来求解问题。图解人工智能第二章学习笔记中可能会涉及到状态空间法的概念和问题状态描述。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [人工智能及其应用——第二章学习笔记(上)](https://blog.csdn.net/JallinRicher/article/details/122752897)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [《人工智能及其应用》课程笔记(二)第2章 知识表示方法](https://blog.csdn.net/qq_46485137/article/details/122101559)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值