tensorflow训练时内存持续增加并占满

记录一次小白的tensorflow学习过程,也为有同样困扰的小白留下点经验。

先说我出错和解决的过程。在做风格迁移实验时,使用预加载权重的VGG19网络正向提取中间层结果,结果因为代码不当,在遍历图片提取时内存持续增长,导致提取几十个图片的特征内存就满了。

原因是在对每一张图片正向传播结束后,都会在留下中间信息。具体地说是在我将正向传播的代码与模型的代码分离了,在每次遍历图片时都会正向传播,在tensorflow中新增加了很多的计算节点(如tf.matmul等等),导致内存中遗留了大量的过期信息。

纠正的做法就是一个前提:避免在循环训练图片时额外使用tf计算资源。

使用placeholder作为输入数据的入口,在模型中定义需要使用的函数,包括正向传播。不要在遍历图片时额外使用tf计算。

遇到这种问题一定要回头检查代码,尤其是在别人写的代码基础上改时。 多学习公开的源码。

错误示例:

def build_model( model_path):
model_input = tf.placeholder( 'float32', [ 1, IMAGE_HEIGHT, IMAGE_WIDTH, COLOR_CHANNELS])
vec1 = ...
......
return model_input,vec1
def get_style_represent( vec):
# 一些tf计算操作
    return new_vec

with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
img_input,vec1 = build_model( VGG19_MODEL) # 加载模型
for cur_img_path in imgs_path_list: # 遍历图片
cur_img = load_image(cur_img_path)
vec1_out = sess.run(vec1, feed_dict = {img_input:cur_img}) # 正向传播输出模型中的vec1
        # 对vec1进行一些处理,此处在遍历图片时额外使用了tensorflow的计算节点,导致在内存中遗留信息
new_vec = get_style_represent(vec1_out)

正确示例:

def build_model( model_path):
model_input = tf.placeholder( 'float32', [ 1, IMAGE_HEIGHT, IMAGE_WIDTH, COLOR_CHANNELS])
vec1 = ...
......
new_vec = ... # 将get_style_represent计算操作定义在模型中
return model_input,vec1,new_vec

with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
img_input,vec1,new_vec = build_model( VGG19_MODEL)
for cur_img_path in imgs_path_list:
cur_img = load_image(cur_img_path)
         # 一次正向传播将处理后的vec1也得到了,避免在每次图片正向传播时留下额外信息
vec1_out,new_vec_out = sess.run([vec1,new_vec], feed_dict = {img_input:cur_img})
所以,如果你也遇到了同样的问题,不妨看一下你是不是在迭代过程中额外使用了新的tf计算节点吧。
  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
当使用TensorFlow进行训练内存持续增加占满可能有以下几个原因: 1. 数据量过大:如果训练使用了大量的数据,例如大型图像数据集或大型文本数据集,那么TensorFlow会将这些数据加载到内存中进行处理。如果数据量过大,内存的需求也会相应增加。 2. 模型复杂度过高:如果使用了复杂的神经网络模型,例如深度卷积神经网络(CNN)或长短期记忆网络(LSTM),那么模型中的参数数量会非常庞大。在每次训练迭代过程中,这些参数需要在内存中保存和更新,导致内存增加。 3. 批量大小设置过大:批量大小是指在每次训练迭代中同处理的样本数量。如果将批量大小设置得过大,那么在每次迭代过程中,需要同存储和计算大量的样本数据。这也会导致内存增加。 4. 内存泄漏:如果在代码中存在内存泄漏的问题,即申请的内存没有正确释放,在长间的训练过程中会导致内存用逐渐增加,最终可能占满内存。 针对这些问题,可以采取以下措施来尽量减少内存用: 1. 减少数据量:如果可能的话,可以考虑缩小训练数据集的规模,或者使用数据集的子集进行训练,以减少内存的需求。 2. 简化模型:如果模型过于复杂,可以尝试使用更简单的模型结构,以减少参数数量和内存用。 3. 调整批量大小:通过逐渐增大批量大小,找到一个合适的值,既能保证训练效果,又能降低内存用。 4. 检查内存泄漏:仔细检查代码中是否有内存泄漏的问题,确保申请的内存都得到了正确地释放。 5. 使用分布式训练:如果单个设备的内存无法足需求,可以考虑使用分布式训练,将计算和存储任务分配到多个设备上,从而减少单个设备的内存压力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值