问题描述
-
在基于tensorflow和keras框架的网络建模中,通过编译工具的Debug功能我们会发现网络中数据流的shape为
(None, d1, d2, d3, ...)
,即shape的第一个位置为None,它代表网络可以一次接收batch_size个数据,便于数据流动和网络计算; -
但是,对张量使用
keras.backend.mean()
方法求均值(如计算两个张量的MSE过程中)后,计算结果的shape变成了()
,而不是(None, 1)
;
"""
input_ : 编码前的输入张量, 假设其Debug中的shape为(None, 120, 10)
output_ : 解码后的输出张量, 假设其Debug中的shape为(None, 120, 10)
"""
# 计算二者的MSE损失值
from keras import backend as K
# step1 : 计算绝对差值的平方
a = K.square(input_ - output_) # a的KerasTensor shape:(None, 120, 10)
# step2 : 求均值
b = K.mean(a) # b的KerasTensor shape:()
- 这可能会导致:当输入数据的个数一定时,网络输出数据的个数会随着参数batch_size大小的改变而发生变化:
假设搭建了一个基于重构方法的模型,输入20个数据,我希望网络能够输出20个重构loss值(MSE)。但是,当batch_size=2时,网络输出10个loss值;当batch_size=4时,网络输出5个loss值。
原因分析:
当张量KerasTensor数据的shape为()
时,表明该数据是一个标量,正是因为它的shape不对,导致无论batch_size大小被设为多少,该轮batch都只会产生一个结果。
解决方案:
解决思路很简单,就是将shape由
()
改成(None, 1)
操作方式:
# 计算二者的MSE损失值
import tensorflow as tf
from keras import backend as K
# step1 : 对张量进行reshape
input_ = tf.reshape(input_, [-1, 120 * 10])
output_ = tf.reshape(output_, [-1, 120 * 10])
# step2 : 计算绝对差值的平方
a = K.square(input_ - output_) # a的KerasTensor shape:(None, 120, 10)
# step3 : 求均值
b = K.mean(a, axis=-1, keepdims=True) # b的KerasTensor shape:(None, 1)