深度学习,线性神经网络-卷积(现代卷积网络)

1.从全连接到卷积

1.1.1现代卷积网络

🌟AlexNet 双数据流通道

AlexNet比LetNet要深.

AlexNet由八层组成:五个卷积层,两个全连接隐藏层和一个全连接输出层

2) AlexNet使用ReLU而不是sigmaid作为其激活函数

dropout...

tf_random. set_seed(0)

layer = tf.keras.layers.Dropout(.2,input_shape=(2,))

data = p.arange(18).reshape (5, 2) .astype(np_float32)

print(data)

41ddac460252433d84e2c3d355ca683f.png

 ab0274f4c99240efbefcf47865d8f8e7.png

 8e27cb42dccf4a9f89254846b99f5abb.png

🌟VGG

496272d02dd64976aafe0b0ac1d56361.png

b82db00afc834ac88abaaa244c68f824.png

4cae971330d74e6caffe1b88a3895256.png

b6f2ebff78f047bbb863d9a8faa38b33.png  

🌟NiN网中网

e4e37f7427534b629de629f16c4735d1.png

d1227d2473614b15929d539dbd652b83.png

29b36dc90df043908f4e48af89ba33af.png

 🌟GoogleNet 含并行 ,不同维度卷积层

c134e2cfbce342e794fc152385d0a67f.png

使用不同大小卷积核

  • 特点

1吸收了NiN中串联网络的思想。

给出了一个观点:使用不同大小的卷积核组合是有利的。

  • 基本的卷积块是Inception block
  • Inception:
    1) 由4条井行路径组成。
    2)前三条路径使用使用窗口大小为1*1,3*3,5*5的卷积层。
    3) 中间的2条路径在输入上执行1*1卷积,减少通道数。
  • 4) 第4条路径使用 3 *3最大汇聚层,然后使用1*1改变通道数。 

ResNet 不会存在梯度消失,残差神经网络

40a22eb8ea9f4d05a709460f2e406b74.png

f544695ed28640deadf76476a2b9214f.png

 使深层次的网络得以训练

DenseNet 消耗多,效果好 稠密神经网络

e3d1af4f264544b49bf2805f95ace2b9.png

ff5d6c9e82cf42a39a436f8c3b15cbc1.png  

2.卷积层

学习表征:

3.填充和步骤

4.多输入多输出通道

5.汇聚层

6.卷积神经网络LeNet

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值