【原创】深度学习学习笔记(四)-信息处理单元(神经元)

本文介绍了深度学习中处理空间和时间信息的关键单元。卷积层通过局部连接和权重共享对特征图进行处理,而池化层则用于降低计算复杂度。循环神经网络(RNN)如LSTM解决了时间序列数据中长距离依赖的问题,尤其适用于处理序列数据。LSTM通过特殊结构缓解了传统RNN的梯度消失问题。
摘要由CSDN通过智能技术生成

空间信息处理单元

CNN卷积神经网络,输入层、卷积层、池化层、全连接层

1. 卷积层

输入:特征图[h,w,d,n],h,w为图长宽,d为深度(通道数),n批量大小,k个尺寸为[a,a,d]的滤波器(卷积核)
卷积运算:加权求和,对应相乘,乘积之和作为中心像素新值。
输出尺寸:[h,w,d,n]

其中s为滑动步长,p为填充大小(0填充尺寸)
调整p来保证输出尺寸为整数
感受野(超参数),就是滤波的尺寸空间a

  • 局部连接
  • 权重共享(参数共享)

2. 池化层

通常在卷积层后面加一个池化层,是一种非线性下采样的一种形式
分最大池化,平均池化
通过减少网络参数来减少计算量
( 1 0 2 3 4 6 6 8 3 1 1 0 1 2 2 4 ) \left(\begin {matrix} 1&0&2&3\\ 4&6&6&8\\ 3&1&1&0\\ 1&2&2&4\\ \end{matrix}\right) 1431061226123804

最大池化结果:
( 6 8 3 4 ) \left(\begin {matrix} 6&8\\ 3&4\\ \end{matrix}\right) (6384)

平均池化结果:
( 3 5 2 2 ) \left(\begin {matrix} 3&5\\ 2&2\\ \end{matrix}\right) (3252)

时间信息处理单元

RNN循环神经网络

输出可以在下一时刻直接作用到自身,存在同层自连接
RNN可理解成某时刻输出是之前所有输入共同作用的结果,但实际上某时刻输入对后面时刻影响只能维持若干时刻

LSTM神经元

解决RNN时间上梯度消失问题

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

A.Star

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值