神经网络训练下降到一定程度不下降,测试集不变

最近在整一些GCN+a+g模型,更改loss表达的时候发现有时候loss函数下降到一定程度不变,几个更改的方向可以参考,之后遇到继续更新:

1. 降低学习率,之前0.1改成0.01能跑了,当然看具体任务,尝试变为之前的0.1倍尝试即可

2.网络层数过高导致的梯度消失/过拟合,增加了一层FC之后loss异常了,仍然可尝试更改MLP部分或者降低学习率

3.loss函数设置,这个可能不一定会用到,是在尝试不同的loss函数遇到的,losses平均回传和loss回传会不同,中间还有一些对齐的细节需要注意

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值