【深度学习课程笔记】(三)卷积神经网络

目录

传统神经网络vs卷积神经网络

损失函数  softmax  onehot

为什么需要卷积神经网络

基本组成结构

卷积

padding

特征图大小计算

depth/channel

池化

全连接

小结

卷积神经网络典型结构

AlexNet

DropOut

数据增强

ZFNET

VGG

GoolgeNet

inception 模块

ResNet

代码实战

TensorFlow-CNN

总结


 

传统神经网络vs卷积神经网络

损失函数  softmax  onehot

 

为什么需要卷积神经网络

 

基本组成结构

 

卷积

 

 

更贴合实际的例子

这个例子是3个channel :R G B 对应右边三个矩阵

每个channel 有自己卷积核 然后有两套卷积核 W0  W1

每套卷积核有三个权重矩阵(也可以说是filter)

卷积核下面的是偏置项对应两套卷积核 b0  b1

最右边的则是计算出的两种特征图(对应的三权重矩阵卷积后相加 再加 偏置项)

 

若步长为2

 

步长为3呢

出现大小不匹配

padding

特征图大小计算

depth/channel

是和卷积核filter的个数保持一致的 比如上个例子每套卷积核有对应R G B 的三个卷积核filter,最终则计算出3个

 

不同卷积核关注不同东西

 

池化

 

这里的filter指多大的区域内池化

分类倾向于最大值池化

 

全连接

先做 flatten 展平,然后后一个神经元和前一个神经元每一个值都有一个权重连接。

小结

 

卷积神经网络典型结构

AlexNet

 

DropOut

一定程度克服过拟合问题  关闭部分神经元 关闭部分参数

 

数据增强

通道为3(rgb)  卷积参数量 34944    参数量为 0

经过relu 大小不改变

 

先flatten 展平   再和4096个神经元全连接

把4096个神经元映射到一个类别的大小,求损失,优化网络

 

ZFNET

 

VGG

对迁移学习有很大贡献

GoolgeNet

除了分类,没有全连接层, inception 模块

inception 模块

v2通过1*1 的卷积核来降维,减少参数量

v3 把5*5 的卷积核 裂变成 3*3 的卷积核

 

ResNet

带有主体,解决梯度消失       若 F(x)为0 则输出也为0 可以自适应调节网络层数

代码实战

TensorFlow-CNN

注意训练时  train改为true

总结

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值