【图卷积网络】01-卷积神经网络:从欧氏空间到非欧氏空间

人工神经网络发展浪潮

在这里插入图片描述
第三次浪潮——卷积神经网络
加拿大多伦多大学教授,机器学习领域泰斗Geoffery Hinton及其学生在《科学》上发表了一篇论文 (Hinton, G. E . Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006, 313(5786):504-507.) ,开启了深度学习在学术界和工业界的新浪潮!
在这里插入图片描述
真正让卷积神经网络受到人们的广泛关注是2012年的ImageNet竞赛
在这里插入图片描述

卷积计算与卷积神经网络结构

卷积定义

  • 卷积是分析数学中的一种重要的运算
  • 设 f(x) 和 g(x) 是 R 上的两个可积函数
    • 连续形式卷积定义如下
      在这里插入图片描述
    • 离散空间卷积在这里插入图片描述

卷积中的基本概念

  • 卷积核大小 (Kernel Size): 卷积操作感受野,在二维卷积中,一般卷积核大小都是奇数,主要是为了将卷积核的中心和计算结果的中心对应起来。通常设置为3,即卷积核大小为3×3。
  • 步长 (Stride): 卷积核遍历图像时的步幅大小,默认值通常设置为1
  • 边界扩充 (Padding): 样本边界的处理方式,通常是为了使输入大小和卷积结果的大小保持一致。
  • 输入与输出通道 (Channels): 构建卷积层时需定义输入通道数量I,和输出通道数量O,每个网络层的参数量为I×O×K(K为卷积核的参数个数)

卷积的特点

  1. 卷积计算是局部计算
  2. 卷积是特征检测器

更多卷积动图

Convolution animations

N.B.: Blue maps are inputs, and cyan maps are outputs.

imgimgimgimg
No padding, no stridesArbitrary padding, no stridesHalf padding, no stridesFull padding, no strides
imgimgimg
No padding, stridesPadding, stridesPadding, strides (odd)

Transposed convolution animations

N.B.: Blue maps are inputs, and cyan maps are outputs.

imgimgimgimg
No padding, no strides, transposedArbitrary padding, no strides, transposedHalf padding, no strides, transposedFull padding, no strides, transposed
imgimgimg
No padding, strides, transposedPadding, strides, transposedPadding, strides, transposed (odd)

Dilated convolution animations

N.B.: Blue maps are inputs, and cyan maps are outputs.

img
No padding, no stride, dilation

基本概念——池化、全连接

  • 池化层

    • 特殊形式卷积。
    • 降维、减少数据计算量,减缓过拟合,特征不变性(平移、尺度)
      在这里插入图片描述
  • 全连接层

    • 模型输出层
    • 分类、回归
      在这里插入图片描述

多层卷积神经网络示例

在这里插入图片描述在这里插入图片描述在这里插入图片描述
卷积核大小为5*5,步长为1,不扩充边界,输入通道为3,输出通道为2输出通道数为6,其余参数不变。第一层的输出通道数为3,第二层输出通道数为6。

卷积神经网络发展历程
在这里插入图片描述

为什么能得到飞速发展:

  • 数据爆炸:图像数据、文本数据、语音数据、社交网络数据、科学计算等
  • 计算性能大幅提高

现代卷积神经网络结构基础——LeNet

  • LeNet诞生于1994年,由Yann LeCun提出,用于手写字符识别与分类
  • 6层网络结构:两个卷积层,两个下采样层和两个全连接层
  • 卷积层包括两部分:卷积计算和sigmoid非线性激活函数
    在这里插入图片描述

研究重心转向卷积神经网络——AlexNet、VGGNet

  • 网络更深:AlexNet一共8层,VGGNet一共16层或19层
  • 数据增广:为增强模型泛化能力,对256×256原始图像进行随机裁剪,得到尺寸为224×224图像,输入网络进行训练
  • ReLU非线性激活函数:减少计算量,缓解梯度消失,缓解过拟合。ReLU激活函数现已成为神经网络中最通用的激活函数
  • Dropout:全连接层神经元以一定概率失活,失活神经元不再参与训练。Dropout的引用,有效缓解了模型的过拟合
  • Pre-Training:先训练一部分小网络,确保稳定之后,在此基础上网络逐渐加深。

卷积神经网络深度、宽度扩展—— GoogLeNet

  • 网络更深:GoogLeNet一共22层
  • 多分辨率结构:引入Inception结构替代传统卷积+激活
  • 计算量降低:采用1×1卷积核来实现数据降维
    Inception 结构
    在这里插入图片描述
    GoogLeNet 结构
    在这里插入图片描述

卷积神经网络深度、宽度再扩展—— ResNet、DenseNet

  • 网络更深:ResNet已超过一百层(ResNet-101)
  • 残差连接:特征经两条路线传递,常规路线与捷径
  • 跳跃连接:底层特征与高层特征相融合
ResNet残差连接示意图DenseNet结构示意图
在这里插入图片描述在这里插入图片描述

卷积神经网络通用性扩展

  • 深度可分离卷积
    • 5×5分通道卷积
    • 1×1卷积融合各通道特征
      在这里插入图片描述在这里插入图片描述
  • 空洞卷积(膨胀卷积)
    • 局部输入不变
    • 感受野变大
空洞卷积感受野空洞卷积计算过程
在这里插入图片描述img

卷积神经网络计算范式

  • 多维欧式空间
  • 局部空间响应
  • 卷积参数共享

在这里插入图片描述
在这里插入图片描述


卷积神经网络拓展至非欧空间

欧式空间非规则化连接—活性卷积

  • 活性卷积 (CVPR 2017)
    • 双线性插值:离散坐标下,可以通过插值方法计算得到连续位置的像素值
      在这里插入图片描述

    • 可学习参数 △αk,△βk

    • 可变卷积核形状固定

  • 卷积核形状可变

在这里插入图片描述
欧式空间非规则化连接—可变形卷积

  • 可变形卷积 (ICCV 2017)

    • 3×3 可变形卷积 (N=9)
    • 每个位置对应一个偏置
    • 偏置通过额外卷积学习
    • 每个偏置为二维向量
      在这里插入图片描述
  • 卷积核位置参数化

  • 双线性插值连续化

  • 传统BP算法训练
    在这里插入图片描述

欧式空间卷积神经网络

  • 处理固定输入维度数据、局部输入数据必须有序
  • 语音、图像、视频(规则结构)满足以上两点要求

非欧式空间结构数据

  • 局部输入维度可变
  • 局部输入排列无序
    在这里插入图片描述

非欧式空间卷积神经网络
在这里插入图片描述

在这里插入图片描述


本系列内容

  1. 绪论,卷积神经网络:从欧氏空间到非欧氏空间(本文内容)
  2. 谱域图卷积介绍
  3. 空域图卷积介绍(一)
  4. 空域图卷积介绍(二)
  5. 图卷积的实践应用
  6. 基于PyTorch的图卷积代码实现

后续笔记将更新至专栏《图卷积神经网络》中。

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

别来BUG求求了

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值