算法面经细节(更新)

Q:训练神经网络的,什么时候early stopping。(vivo一面,挂)
A:《西瓜书》105页:“将数据分成训练集和验证集(validation set),训练集用于计算梯度、更新连接权(w)和阈值(b),验证集用于估计误差。若训练集误差降低但验证集误差升高,则停止训练。同时返回具有最小验证集误差的w和b”。
Q:神经网络如何避免过拟合?(拼多多二面,挂)
A:通常避免过拟合的方法都能使用:

  1. 加大数据量。
  2. 降低模型复杂度。
  3. 参数正则化
  4. early stopping
  5. dropout

(在面试的时候说了batch normalization……估计因为这个挂了)
Q:怎样防止梯度消失?

  1. BN
  2. ResNet
  3. ReLU

BN使得每一层神经网络的输入保持相同分布。这样

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值