小白学习深度学习及神经网络基础概念篇(卷积部分)

深度学习概况

深度学习

深度学习是一种利用复杂结构的多个处理层来实现对数据进行高层次抽象的算法,是机器学习的一个重要分支。

卷积神经网络

全连接神经网络

输入层,输出层,隐藏层

构成:
存在问题:

维度灾难

可优化:

相邻两层的权重

卷积神经网络

产生背景:

想要提高全连接网络的性能

感受野:

人对现实中信息特征的抽取

卷积:

利用计算机模拟人的抽象信息特征提取来处理信息的过程

定义公式

连续函数卷积:

f*g(x)=   

卷积“卷”:翻转

卷积“积”:积分

最终目的:保留f函数的特征,并选择一部分信息

离散卷积

即将积分符号换成求和,

卷积核g(x)

通过卷积核来对原函数卷积(相乘相加),得到一个新的函数,进而可以通过新的函数(得到的特征图)对原函数进行需要的特征提取。

联系:感受野就相当于g(x)函数,对原来真实事物进行特征抽象的过程。

逻辑缺环:为什么积分f(t)*g(x-t)可以用两个函数图像重合部分的面积来表示大小,以我微弱的定积分功底想不明白。(看了后面的大概有些明白了,就是重合部分面积表示范围,实际函数大小还是看两个函数相乘相加之和?)

卷积的基本操作

核函数,相当于一个滤波器

用g(x)核函数来进行卷积,核函数一般要比初始的要小一些

既然是特征提取,就不必反映出所有数值,抽象的抽离出一部分特征就可以了

过程如下

卷积的可视化

动态显示

CNN Explainer

CNN一种神经网络

卷积神经网络中的感受野

在卷积神经网络中,感受野是CNN中的某一层输出结果的一个元素对应输入层的一个映射,即feature map(特征图)上的一个点对应的输入图上的区域。

kernel核心,卷积核

不同方向的卷积

要全面把握物体的特征,要选择多个卷积核

卷积识别图像的例子

卷积神经网络相较于传统神经网络

做过滤,做特征提取

就相当于核函数作为一个权重来对原始图的编码进行卷积

每个图的特征位置用核函数来度量

卷积神经网络

padding操作

为了充分获得边缘轮廓

神经网络模型

多通道卷积

RGB:red green blue,彩色图像

卷积输出特征图大小计算公式

p填补,s使用的步幅

卷积架构

转置卷积

空洞卷积

信息空洞稀释

可分卷积

基于华为人才在线深度学习课程

指个路在这

课程详情 (huawei.com)

  • 12
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值