1.书写本篇博客的目的首先是为了让自己不要忘了,顺便帮助遇到一样困扰的小伙伴而已,文笔不佳,请见谅。
2.进入正题:在使用LSTM网络做图片分类测试的时候
注意一个参数:batch_size
在定义LSTM_cell的时候: lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(n_hidden_units, forget_bias=1.0, state_is_tuple=True)
通常下一行写上的是:
_init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32)
outputs, states = tf.nn.dynamic_rnn(lstm_cell, data, initial_state=_init_state,time_major=False)
这个时候需要注意的是,这个batch_size是什么意思,都知道batch_size是批处理数量,也就是网络一批性训练识别多少个样本的意思,也就是说,若是你保存了LSTM模型后,要重载模型来进行图片测试的时候,那么你就得实际的输入batch_size个样本进入网络来测试,不管你使用什么办法,只要batch_size和你实际输入的测试图片数量不一致,那么就会发生维度不统一的报错(我的报错):
ConcatOp : Dimensions of inputs should match: shape[0] = [1,128] vs. shape[1] = [128,128]
意思就是,你网络定义的是128*128的,但是你实际只给网络1*128的数据,定义的维度与实际输入测试的维度不统一。
所以,解决办法就是,要么改代码把batch_size改成你实际一次测试导入的图片数量,要么按照batch_size的大小一次性导入batch_size张图片进行测试。
代码我就不赋上了,只要改动batch_size=n即可。