使用numpy进行标准化出现很多NaN的情况

最近使用sklearn.preprocessing.StandardScaler对18000个样本进行标准化时进行标准化,报错了,提示有过多NaN值。

                            ValueError: Input contains NaN, infinity or a value too large for dtype('float64') 

因为NaN值不会报错而且可以向下传递,会有很多问题。问题如下图。后来使用numpy实现以下标准化的公式,

                                                                       x_t = (x-mean / std)

也有同样的问题发生。

                        

一开始我以为是计算过程中累加和过大而导致NaN的发生,后来一想python的数字可以非常非常大,不可能出现累加和过大的可能。那么可能就是除0的问题了。最后,终于在前面的预处理中找到了一个可能除0的地方。

所以,在计算过程中出现大量NaN的情况,最好去最开始的地方去找针对除0的错误,检查分母是否为0。

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值