深度学习概况
深度学习
深度学习是一种利用复杂结构的多个处理层来实现对数据进行高层次抽象的算法,是机器学习的一个重要分支。
卷积神经网络
全连接神经网络
输入层,输出层,隐藏层
构成:
存在问题:
维度灾难
可优化:
相邻两层的权重
卷积神经网络
产生背景:
想要提高全连接网络的性能
感受野:
人对现实中信息特征的抽取
卷积:
利用计算机模拟人的抽象信息特征提取来处理信息的过程
定义公式
连续函数卷积:
f*g(x)=
卷积“卷”:翻转
卷积“积”:积分
最终目的:保留f函数的特征,并选择一部分信息
离散卷积
即将积分符号换成求和,
卷积核g(x)
通过卷积核来对原函数卷积(相乘相加),得到一个新的函数,进而可以通过新的函数(得到的特征图)对原函数进行需要的特征提取。
联系:感受野就相当于g(x)函数,对原来真实事物进行特征抽象的过程。
逻辑缺环:为什么积分f(t)*g(x-t)可以用两个函数图像重合部分的面积来表示大小,以我微弱的定积分功底想不明白。(看了后面的大概有些明白了,就是重合部分面积表示范围,实际函数大小还是看两个函数相乘相加之和?)
卷积的基本操作
核函数,相当于一个滤波器
用g(x)核函数来进行卷积,核函数一般要比初始的要小一些
既然是特征提取,就不必反映出所有数值,抽象的抽离出一部分特征就可以了
过程如下
卷积的可视化
动态显示
CNN一种神经网络
卷积神经网络中的感受野
在卷积神经网络中,感受野是CNN中的某一层输出结果的一个元素对应输入层的一个映射,即feature map(特征图)上的一个点对应的输入图上的区域。
kernel核心,卷积核
不同方向的卷积
要全面把握物体的特征,要选择多个卷积核
卷积识别图像的例子
卷积神经网络相较于传统神经网络
做过滤,做特征提取
就相当于核函数作为一个权重来对原始图的编码进行卷积
每个图的特征位置用核函数来度量
卷积神经网络
padding操作
为了充分获得边缘轮廓
神经网络模型
多通道卷积
RGB:red green blue,彩色图像
卷积输出特征图大小计算公式
p填补,s使用的步幅
卷积架构
转置卷积
空洞卷积
信息空洞稀释
可分卷积
基于华为人才在线深度学习课程
指个路在这