深度学习 踩的各种坑

 

未完待续,遇到问题解释一些问题

clone_loss与多GPU问题

clone_loss指的你在一个拥有多个GPU的服务器上训练模型的时候,就算你指定了GPU,设置了利用率,在目标设备无法完成需求情况下,tensorflow也会复制到多个gpu上运行。clone_loss的意思就是sum_loss。如果你只有一块GPU,那么就是clone_loss_1,就是所说的loss。

开始跑程序时候,一定要设置,否则会被骂哈哈

batch_size

batch_size应该是个偶数。不明白,只知道他的大小影响loss

script说明文档

很多大的框架里面都有例子,和相关的说明文档,好好看看。

loss在某一处很小值下不去

加个冲量或者换个优化器吧

优化器其实没啥用

优化器其实没啥用,就是调学习率。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

颐水风华

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值