神经网络参数初始化及训练过程loss出现NAN的解决方法

一、

最近在修改代码后,训练过程loss出现NAN,而且概率很大,于是查找原因,在此记录。

在给信号按照相应信噪比加噪声的过程中,增加了部分代码,且增加了batch  norm,但是训练过程中大概率loss会出现NAN。

增加噪声的代码如下:

1     def wgn(x, snr):
2          P_signal = np.sum(abs(x)**2)/len(x)
3       P_noise = P_signal/10**(snr/10.0)
4       return np.random.randn(len(x)) * np.sqrt(P_noise)
 

根据查到的资料,先后怀疑过是学习率,batch norm的过程,最后查到是代码中出现开平方的过程,sqrt(P_noise),而P_noise接近于零导致。

故在sqrt前,给P_noise加上一个小数,变为sqrt(P_noise+0.00001),此问题解决。

此过程参考的资料如下:

https://blog.csdn.net/weixin_44191286/article/details/86437924

https://blog.csdn.net/github_36923418/article/details/103010097

https://blog.csdn.net/qq_34914551/article/details/99992341

二、

给权重参数初始化

1.单层网络的情况:

xavier更适合tanh激活函数

torch.nn.init.xavier_normal(tensor, gain=1)

例如:

w = torch.Tensor(3, 5)
nn.init.xavier_normal(w)

kaiming更适合relu

torch.nn.init.kaiming_normal(tensor, a=0, mode='fan_in')

例如:

w = torch.Tensor(3, 5)
nn.init.kaiming_normal(w, mode='fan_out')

2.自定义多层网络:

__init__中迭代循环self.modules()来初始化网络参数

参考的资料如下:

https://blog.csdn.net/dss_dssssd/article/details/83959474

https://blog.csdn.net/dss_dssssd/article/details/83990511

 

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值