未完待续,遇到问题解释一些问题
clone_loss与多GPU问题
clone_loss指的你在一个拥有多个GPU的服务器上训练模型的时候,就算你指定了GPU,设置了利用率,在目标设备无法完成需求情况下,tensorflow也会复制到多个gpu上运行。clone_loss的意思就是sum_loss。如果你只有一块GPU,那么就是clone_loss_1,就是所说的loss。
开始跑程序时候,一定要设置,否则会被骂哈哈
batch_size
batch_size应该是个偶数。不明白,只知道他的大小影响loss
script说明文档
很多大的框架里面都有例子,和相关的说明文档,好好看看。
loss在某一处很小值下不去
加个冲量或者换个优化器吧
优化器其实没啥用
优化器其实没啥用,就是调学习率。