在对MobileNet进行fine-tuning的时候,出现了各种诡异的错误,在之前的博文介绍的错误当中,因为要将批量的图片数据通过指定的session转化为ndarry数据,因此代码如下
with tf.Session() as sess:
image,label,oneHotlabel,imagePath=itertor.get_next()
image,oneHotlabel=sess.run([image,oneHotlabel])
model.fit(x=image,y=oneHotlabel,batch_size=11,epochs=10)
然而在指定完之后session之后运行的时候,网络却报出师徒尝试使用为初始化的值的错误,这也是莫名其妙,因为我的网络是采用keras的API直接实现fine-tuning的并不是采用TensorFlow完成编写的,部分代码如下:
x = base_model.get_layer("conv_pw_11_relu").output # 获得conv_pw_12_relu层的输出
x = Conv2D(512, kernel_size=(3, 3))(x)
x = Activation("relu")(x)
x = AvgPool2D(pool_size=(5, 5))(x)
x = Dropout(rate=0.5)(x)
x=Conv2D(class_num,kernel_size=(1,1))(x)
x=Reshape((class_num,))(x)
predictions=Softmax()(x) #输出对各个类别的分类概率
# finetune模型
model = Model(inputs=base_model.input, outputs=predictions)
通过查阅keras的文档也可以知道,新建的各个层在未指定的初始化的方式时,权重系数和偏置系数分别指定的是随机初始化,以及随机初始化,并且网络的另一部分是直接使用原有的MobileNet的结构以及权重参数。那么出现这个错误就非常的匪夷所思了,于是尝试着加上tf.global_variables_initializer().run(),没想到问题就解决了。
with tf.Session() as sess:
tf.global_variables_initializer().run()
image,label,oneHotlabel,imagePath=itertor.get_next()
image,oneHotlabel=sess.run([image,oneHotlabel])
model.fit(x=image,y=oneHotlabel,batch_size=11,epochs=10)
通过再次的检查,发现是with tf.Session() as sess:使得后面的模型也在这个session的范围内,但是我的初衷是只是把Tensor类型的数据通过sess.run转化为ndarry数据类型,于是代码在不加上tf.global_variables_initializer().run()的情况下,改为以下情况也可以解决未初始化的问题:
image,label,oneHotlabel,imagePath=itertor.get_next()
with tf.Session() as sess:
image,oneHotlabel=sess.run([image,oneHotlabel])
model.fit(x=image,y=oneHotlabel,batch_size=11,epochs=10)
由此也可以知道控制好session的作用范围可以减少很多不必要的错误。
PS:在对MobileNet的fine-tuning的时候出现了各种奇奇怪怪的问题,除了这个之外,另外的问题还有:
keras当中对MobileNet进行fine-tuning出现的错误we expect the tensors to have a static batch size
keras当中对MobileNet进行fine-tuning出现的错误:could not create a dilated convolution forward descriptor
keras当中对MobileNe进行fine-tuning出现的错误:Attempting to use uninitialized value