cnn rnn 笔记

6 篇文章 0 订阅

 1. cnn

  • 卷积运算:对应位置相乘再相加求和,即为卷积值:

1 feature_map1(1,1) = 1*1 + 0*(-1) + 1*1 + 1*(-1) = 1
2 feature_map1(1,2) = 0*1 + 1*(-1) + 1*1 + 1*(-1) = -1
3 ```
4 feature_map1(3,3) = 1*1 + 0*(-1) + 1*1 + 0*(-1) = 2

  • 卷积后尺寸:

feature_map尺寸计算公式:[ (原图片尺寸 -卷积核尺寸)/ 步长 ] + 1

(4 - 2)/1 +1

  • Filter1是垂直卷积核,Filter2是水平卷积核。卷积核有很多种。

(会在越靠近输入层的卷积层设定少量的卷积核,越往后,卷积层设定的卷积核数目就越多)

  • 池化层

通过降采样的方式,在不影响图片质量的情况下,压缩图片,减少参数。

池化方法一般有两种:

· MaxPooling:取滑动窗口里最大的值

· AveragePooling:取滑动窗口内所有值的平均值

  • Zero Padding

为了保证每次经过卷积或池化输出后图片的大小不变?

  • Flatten层用来把数据拍平

做完Max Pooling后,我们就会把这些数据“拍平”,丢到Flatten层,然后把Flatten层的output放到full connected Layer里,采用softmax对其进行分类

  • 超参数:

零补充,核尺寸,步长,核数量

  • 防止梯度消失或者梯度爆炸:

归一化,都往中间靠一靠。

  • 梯度消失、爆炸的解决方案

预训练加微调。梯度剪切。

ReLu函数是怎么解决梯度消失问题的?(

-- 由于负数部分恒为0,会导致一些神经元无法激活(可通过设置小学习率部分解决) -- 输出不是以0为中心的

求导是1啊,怎么就非线性了?就是个滤波啊,效果为啥就好了?)

  • 防止过拟合

2. LSTM

每个节点两个输入,两个输出。每层都有个_LSTM_O,前面27个是为了最后一个(28)输出做准备。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值