神经网络层数、神经元数、梯度下降学习率和训练次数都会影响神经网络的效果

最近用神经网络拟合一个401*4005(401是样本数 4005是特征数)的样本集,得到一定的感触,现来分享一下:

神经网络层数和神经元数会影响神经网络的accuracy。《神经网络与深度学习》一书说过,只在输⼊层和输出层之间存在⼀个中间层的情况下,不论我们想要计算什么样的函数,我们都确信存在⼀个神经⽹络可以计算它。但是不同层数和神经元数的神经网络的工作正确率并不一样。一般来说,在调参合理的情况下,层数和神经元数越多,正确率越高,不过相应地,容易出现过拟合(需要正则化处理或者采用权值衰减/Dropout法则处理正则化)

学习率和训练次数同样也会影响正确率。学习率太高,代价函数不容易降低到最低点(会不断越过最低点)。这跟梯度下降的缺点:在最低点处不容易收敛,收敛效果差有关系。所以需要适当调整学习率来提高正确率。训练次数也是同理,训练次数如果太多了,那么梯度下降可能会越过最低点,反而降低了训练正确率。而简单地观察代价函数的变化趋势很可能只找到局部最优点而不是全局最优点。例如这张图,有多个局部最低点,但是全局最低点就一个。

 

所以最好的做法是代价函数和正确率可视化,观察代价函数和正确率随训练次数的的变化曲线,从而调整训练次数找到全局最优点。

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值