TensorFlow内存溢出问题

在运行tensorflow训练rnn时,有多个文件夹,每个文件夹下的文件训练成一个模型,这样将会形成多个模型。但在运行了一晚上之后发现内存很高,CPU利用率很低,感觉是内存溢出。
首先想到的是python垃圾回收问题,但调用了gc.collect()之后任然有问题;
后来感觉是session没关闭,但使用的是with session,不会出现这个问题;
之后网上说是应为循环中创建了计算节点问题,我的迭代中没有创建计算节点,但我在生成多个模型时不得不创建多个节点,但这多个节点讲道理在每次运行完一个文件夹之后会关闭,所以要么是我在每次运行完一个文件夹之后生成的模型在计算并生成下一个文件夹中的数据的模型的时候任然保留,要么是其他问题;如果是每次生成一个模型之后第二次生成另一个模型时第一个模型还在那么我每次生成的模型的大小会成等差数列增长。
打开多个模型文件一看大小,果然递增。
这个问题要么是session没关,即多次运行使用同一个session,要么是graph没关,由于session使用了with,所以将问题定位到graph
于是(解决方法):
在train过程中每次定义计算节点之前加上

with tf.Graph().as_default():

即:

//训练函数
def train(self, df_train):
	with tf.Graph().as_default():
		//定义各种计算,比如加法等
		train_optration=……//定义训练节点
		with tf.Session() as sess:
			for i in range(self.iteration_num):
				sess.run(train_optration)
//预测函数
def predict(self, df_test):
	with tf.Graph().as_default():
		//定义各种计算,比如加法等
		predict_optration=……//定义预测节点
		with tf.Session() as sess:
			sess.run(predict_optration)
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值