在神经网络搭建设计过程中遇到关于CUDA报错(指搜索结果的指向),实际问题出现在网络的损失计算阶段(这里使用交叉熵损失函数、二元交叉熵、F.cross_entropy、nn.BCEWithLogitsLoss等),示例警告和相关报错如下:
https://blog.csdn.net/wuliBob/article/details/104119616
https://blog.csdn.net/studyeboy/article/details/135245104
https://blog.csdn.net/qq_38253837/article/details/119654485
https://blog.csdn.net/BetrayFree/article/details/134267306
*小技巧:对于调试过程中不显示报错位置,错误比较模糊的可以调用os精准化报错信息。
import os
os.environ['CUDA_LAUNCH_BLOCKING'] = '1'
实际问题出现在网络结果中的负值。
经验证发现:对于仅更换网络接口时,其他网络可以进行正常训练。当网络输出结果中包含少量负值,训练代码可以正常跑通,当出现大量负值时,会出现大量不同的关于CUDA的报错警告信息。注意:这里并未对少量大量进行量化(玄学)。
问题解决:对于这类问题的解决要点在于BN和RELU等结构的适当调整,以个人经验看来适当控制网络输出,增加激活函数来减少网络负值现象,能够有效解决此类问题。