卷积神经网络loss不下降,神经网络loss多少算正常

本文探讨了神经网络训练中遇到的问题,包括loss无法下降的原因,如维度选择、模型结构、权重初始化、正则化和优化器设置。此外,还分析了batch size选择对训练的影响,以及loss收敛和准确率突然下降的可能因素,提醒注意训练时的个人状态和情绪对结果的潜在影响。
摘要由CSDN通过智能技术生成

1、为什么初始化向量后 神经网络loss无法下降

通常为了计算的优化等缘故,维度一般取2的指数。
全连接层后续计算loss,总共类别应该会有上千类,所以之前的layer最好也是1000这种规模,所以一般取1024,2048,4096等。
通过在数据集上进行测试,可以跑出来一个结果比较好的网络结构

谷歌人工智能写作项目:小发猫

2、BP神经网络损失函数居高不下

1、模型结构和特征工程存在问题神经网络loss没有下降原因
2、权重初始化方案有问题。
3、正则化过度。
4、选择合适的激活函数、损失函数。
5、选择合适的优化器和学习速率。
6、训练时间不足,模型训练遇到瓶颈。

3、怎么选取训练神经网络时的Batch size?

选取训练神经网络时先选好batch size,再调其他的超参数。并且实践上来说,就两个原则——batch size别太小,也别太大,其他

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值