本次训练一个带有语义分割任务的网络,发现语义分割的交叉熵损失一直是nan,而且是从刚开始迭代就是nan,检查了网络一直没发现问题,学习率调小也不起作用,推测是损失函数计算中log传入了0,考虑到用的激活函数是tanh,会产生0值,所以考虑将激活函数换成不带0的sigmoid函数,换完之后发现立马就是正常损失值开始迭代了
tensorflow下怎么解决语义分割交叉熵损失总是nan
最新推荐文章于 2024-04-28 14:19:29 发布
本次训练一个带有语义分割任务的网络,发现语义分割的交叉熵损失一直是nan,而且是从刚开始迭代就是nan,检查了网络一直没发现问题,学习率调小也不起作用,推测是损失函数计算中log传入了0,考虑到用的激活函数是tanh,会产生0值,所以考虑将激活函数换成不带0的sigmoid函数,换完之后发现立马就是正常损失值开始迭代了