gtx1070和gtx660,两个显卡,分别在caffe中跑相同的网络,配置文件、参数、数据集完全相同,为什么训练结果相差特别多,1070的训练损失特大,准确率与瞎猜差不多,反而是660的老显卡准确率0.9以上,请问有这是正常情况吗,难道根据显卡的配置不同,网络的参数调节也要有很大的不同吗?
很可能是cudnnV4和Nvidia显卡不兼容的问题造成的,我最近就遇到这个大坑。
建议跑一下caffe 里的mnist example。看看新显卡环境是不是准确率低。然后换到cudnnV5的caffe版本再试试。
基于pytorch的代码在GPU和CPU上训练时,训练输出结果不同问题_toroxy的博客-CSDN博客_cpu和gpu训练结果一样吗