网络优化与超参数选择

本文探讨了网络优化与超参数选择在深度学习中的重要性。网络容量与训练参数相关,增加神经元数量和隐藏层能增强网络拟合能力,但也可能导致过拟合。超参数如中间层神经元数、学习速率需谨慎选择,增加层数比增加神经元更有效。在实际应用中,通过增加隐藏层提高了模型在训练数据集上的准确率。
摘要由CSDN通过智能技术生成

网络优化与超参数选择

网络容量

可以认为与网络中的可训练参数成正比。其中网络中的神经单元数越多,层数越多,神经网络的拟合能力越强。但是训练速度、难度越大,越容易产生过拟合。

增大网络容量的方法:(提高网络的拟合能力)

  • 增加神经元的个数
  • 增加隐藏层

如何选择超参数?

所谓超参数,也就是搭建神经网络中,需要我们自己选择(不是通过梯度下降算法取优化)的那些参数。比如,中间层的神经个数、学习速率等。

那么如在上述提到的方法中如何提高网络的拟合能力:

单纯的增加神经元个数对网络性能的提高并不明显,增加层会大大提高网络的拟合能力,这也是为什么深度学习的层越来越深的原因。

注意:单层的神经元个数,不能太小,太小的话,会造成信息瓶颈,使得模型欠拟合。

代码实现

在模型中加入多层隐藏层的变化:(以上篇代码为例)

model = tf.keras.Sequential()#建立模型
model.add(tf.keras.layers.Flatten(input_shape=(28,28)))#将图像扁平成28*28的向量
model.add(tf.keras.layers.Dense(128,activation='relu'))
model.add(tf.keras.layers.Dense(128,activation='relu'))
model.add(tf.keras.layers.Dense(128,activation='relu'))
model.add(tf.keras.layers.Dense(10,activation='softmax'))#将10个输出改为概率分布
model.summary()
Model: "sequential_2"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
==============================
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值