Tensorflow_LSTM图片测试batch_size的设置问题

1.书写本篇博客的目的首先是为了让自己不要忘了,顺便帮助遇到一样困扰的小伙伴而已,文笔不佳,请见谅。

2.进入正题:在使用LSTM网络做图片分类测试的时候

注意一个参数:batch_size

在定义LSTM_cell的时候: lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(n_hidden_units, forget_bias=1.0, state_is_tuple=True)

通常下一行写上的是: 

  _init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32)
   outputs, states = tf.nn.dynamic_rnn(lstm_cell, data,  initial_state=_init_state,time_major=False)

这个时候需要注意的是,这个batch_size是什么意思,都知道batch_size是批处理数量,也就是网络一批性训练识别多少个样本的意思,也就是说,若是你保存了LSTM模型后,要重载模型来进行图片测试的时候,那么你就得实际的输入batch_size个样本进入网络来测试,不管你使用什么办法,只要batch_size和你实际输入的测试图片数量不一致,那么就会发生维度不统一的报错(我的报错):

ConcatOp : Dimensions of inputs should match: shape[0] = [1,128] vs. shape[1] = [128,128]

意思就是,你网络定义的是128*128的,但是你实际只给网络1*128的数据,定义的维度与实际输入测试的维度不统一。

 

所以,解决办法就是,要么改代码把batch_size改成你实际一次测试导入的图片数量,要么按照batch_size的大小一次性导入batch_size张图片进行测试。

代码我就不赋上了,只要改动batch_size=n即可。

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值