python椭圆花瓣_吴裕雄 python 神经网络——TensorFlow 花瓣分类与迁移学习(4)

#-*- coding: utf-8 -*-

importglobimportos.pathimportnumpy as npimporttensorflow as tffrom tensorflow.python.platform importgfileimporttensorflow.contrib.slim as slimimporttensorflow.contrib.slim.python.slim.nets.inception_v3 as inception_v3#处理好之后的数据文件。

INPUT_DATA = 'E:\\flower_processed_data\\flower_processed_data.npy'

#保存训练好的模型的路径。这里我们可以将使用新数据训练得到的完整模型保存#下来,如果计算资源充足,我们还可以在训练完最后的全联接层之后再训练所有#网络层,这样可以使得新模型更加贴近新数据。

TRAIN_FILE = 'E:\\train_dir7\\model'

#谷歌提供的训练好的模型文件地址。

CKPT_FILE = 'E:\\inception_v3\\inception_v3.ckpt'

#定义训练中使用的参数。

LEARNING_RATE = 0.002STEPS= 3000BATCH= 32N_CLASSES= 5

#不需要从谷歌训练好的模型中加载的参数。这里就是最后的全联接层,因为在#新的问题中我们要重新训练这一层中的参数。这里给出的是参数的前缀。

CHECKPOINT_EXCLUDE_SCOPES = 'InceptionV3/Logits,InceptionV3/AuxLogits'

#需要训练的网络层参数明层,在fine-tuning的过程中就是最后的全联接层。#这里给出的是参数的前缀。

TRAINABLE_SCOPES='InceptionV3/Logits,InceptionV3/AuxLogits'

#获取所有需要从谷歌训练好的模型中加载的参数。

defget_tuned_variables():

exclusions= [scope.strip() for scope in CHECKPOINT_EXCLUDE_SCOPES.split(',')]

variables_to_restore=[]#枚举inception-v3模型中所有的参数,然后判断是否需要从加载列表中

#移除。

for var inslim.get_model_variables():

excluded=Falsefor exclusion inexclusions:ifvar.op.name.startswith(exclusion):

excluded=Truebreak

if notexcluded:

variables_to_restore.append(var)returnvariables_to_restore#获取所有需要训练的变量列表。

defget_trainable_variables():

scopes= [scope.strip() for scope in TRAINABLE_SCOPES.split(',')]

variables_to_train=[]#枚举所有需要训练的参数前缀,并通过这些前缀找到所有的参数。

for scope inscopes:

variables=tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, scope)

variables_to_train.extend(variables)returnvariables_to_traindefmain():#加载预处理好的数据。

processed_data =np.load(INPUT_DATA)

training_images=processed_data[0]

n_training_example=len(training_images)

training_labels= processed_data[1]

validation_images= processed_data[2]

validation_labels= processed_data[3]

testing_images= processed_data[4]

testing_labels= processed_data[5]print("%d training examples, %d validation examples and %d testing examples." %(n_training_example, len(validation_labels), len(testing_labels)))#定义inception-v3的输入,images为输入图片,labels为每一张图片

#对应的标签。

images = tf.placeholder(tf.float32, [None, 299, 299, 3], name='input_images')

labels= tf.placeholder(tf.int64, [None], name='labels')#定义inception-v3模型。因为谷歌给出的只有模型参数取值,所以这里

#需要在这个代码中定义inception-v3的模型结构。因为模型

#中使用到了dropout,所以需要定一个训练时使用的模型,一个测试时

#使用的模型。

with slim.arg_scope(inception_v3.inception_v3_arg_scope()):

logits, _= inception_v3.inception_v3(images, num_classes=N_CLASSES)

logits1, _= inception_v3.inception_v3(images, num_classes=N_CLASSES, is_training=False, reuse=True)

logits2, _= inception_v3.inception_v3(images, num_classes=N_CLASSES, reuse=True)

trainable_variables=get_trainable_variables()

tf.losses.softmax_cross_entropy(tf.one_hot(labels, N_CLASSES), logits, weights=1.0)

train_step=tf.train.RMSPropOptimizer(LEARNING_RATE).minimize(tf.losses.get_total_loss())#计算正确率。

with tf.name_scope('evaluation'):

correct_prediction= tf.equal(tf.argmax(logits, 1), labels)

evaluation_step=tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

correct_prediction1= tf.equal(tf.argmax(logits1, 1), labels)

evaluation_step1=tf.reduce_mean(tf.cast(correct_prediction1, tf.float32))

correct_prediction2= tf.equal(tf.argmax(logits2, 1), labels)

evaluation_step2=tf.reduce_mean(tf.cast(correct_prediction2, tf.float32))

load_fn= slim.assign_from_checkpoint_fn(CKPT_FILE,get_tuned_variables(),ignore_missing_vars=True)

saver=tf.train.Saver()

with tf.Session() as sess:#初始化没有加载进来的变量。

init =tf.global_variables_initializer()

sess.run(init)#加载谷歌已经训练好的模型。

print('Loading tuned variables from %s' %CKPT_FILE)

load_fn(sess)

start=0

end=BATCHfor i inrange(STEPS):

sess.run(train_step, feed_dict={

images: training_images[start:end],

labels: training_labels[start:end]})if i % 30 == 0 or i + 1 ==STEPS:

saver.save(sess, TRAIN_FILE, global_step=i)

validation_accuracy= sess.run([evaluation_step,evaluation_step1,evaluation_step2], feed_dict={

images: validation_images, labels: validation_labels})print('Step %d: Validation accuracy = %.1f%%' %(

i, validation_accuracy[0]* 100.0))print(validation_accuracy)

start=endif start ==n_training_example:

start=0

end= start +BATCHif end >n_training_example:

end=n_training_example#在最后的测试数据上测试正确率。

test_accuracy = sess.run(evaluation_step, feed_dict={images: testing_images, labels: testing_labels})print('Final test accuracy = %.1f%%' % (test_accuracy * 100))if __name__ == '__main__':

main()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值