感觉更像是一个报错bug,之前在使用显卡,没有指定闲置显卡,而显卡又有些在跑模型的时候,直接会报错:out of memory,这次却报了这样的错误,以为是cuda,cudnn版本出了问题,由于实在太懒,后来才想起来指定可用显卡,于是在命令行加上指定显卡编号的代码
CUDA_VISIBLE_DEVICES=[占位符],[占位符] python ********.py
PS:当时一时没想起来,是因为跑了一下使用pytorch框架的代码,没有报错,就使用tensorflow的报错了,所以tensorflow用起来还是更事儿妈~/(ㄒoㄒ)/~~