Tensorflow学习笔记:CNN篇(10)——Finetuning,猫狗大战,VGGNet的重新针对训练
前序
— 在前面的例子中,对使用已在ImageNet上训练好的VGGNet模型进行图像预测已经获得了成功,但是对于使用Tensorflow进行图片预测的人员来说,不是泛化的使用VGGNet在本身模型参数所带的1000个类别中判断所属或者近似的类别,而是对其更进一步的需求专精一项分类,这是一项非常重要的工作,需要对模型进行重新的Finetuning复用
Kaggle 猫狗大战
猫狗大战的数据集来源于Kaggle上的一个竞赛:Dogs vs. Cats
猫狗大战的数据集下载地址http://www.kaggle.com/c/dogs-vs-cats,其中数据集有12500只猫和12500只狗
现在进入本文的重点内容,使用Finetuning对VGGNet进行调整,从而针对猫狗大战的训练集进行训练,创建工程文件,所有素材如下:
代码示例
Step 1: 对模型的修改
首先是对模型的修改(VGG16_model.py文件),在这里原先的输出结果是对1000个不同的类别进行判定,而在此是对2个图像,也就是猫和狗的判断,因此首先第一步就是修改输出层的全连接数据。
def fc_layers(self):
self.fc6 = self.fc("fc1", self.pool5, 4096, trainable=False) #语句变动
self.fc7 = self.fc("fc2", self.fc6, 4096, trainable=False) #语句变动
self.fc8 = self.fc("fc3", self.fc7, 2)
这里是最后一层的输出通道被设置成2,而对于其他部分,定义创建卷积层和全连接层的方法则无需做出太大改动。
def conv(self,name, input_data, out_channel):
in_channel = input_data.get_shape()[-1]
with tf.variable_scope(name):
kernel = tf.get_variable("weights", [3, 3, in_channel, out_channel], dtype=tf.float32, trainable=False) #语句变动
biases = tf.get_variable("biases", [out_channel], dtype=tf.float32, trainable=False) #语句变动
conv_res = tf.nn.conv2d(input_data, kernel, [1, 1, 1, 1], padding="SAME")
res = tf.nn.bias_add(conv_res, biases)
out = tf.nn.relu(res, name=name)
self.parameters += [kernel, biases]
return out
def fc(self, name, input_data, out_channel, trainable=True):
shape = input_data.get_shape().as_list()
if len(shape) == 4:
size = shape[-1] * shape[-2] * shape[-3]
else:size = shape[1]
input_data_flat = tf.reshape(input_data,[-1,size])
with tf.variable_scope(name):
weights = tf.get_variable(name="weights",shape=[size,out_channel],dtype=tf.float32,trainable=trainable) #语句变动
biases = tf.get_variable(name="biases",shape=[out_channel],dtype=tf.float32, trainable=trainable) #语句变动
res = tf.matmul(input_data_flat,weights)
out = tf.nn.relu(tf.nn.bias_add(res,biases))
self.parameters += [weights, biases]
return out
在这里读者可能已经注意到,在介绍全连接层的修改时,就有一个额外的输入参数:
trainable=False
而在卷积层和全连接层的定义中,也添加了这个参数:
def fc(self, name, input_data, out_channel, trainable=True):
直接的解释就是,在进行Finetuning对模型重新训练时,对于部分不需要训练的层可以通过设置trainable=Fals