Tensorflow1.13
极客云GPU服务器
用这个链接可以免费获得10元优惠券,好像是不需要充值就可以用。
本系统用单核GPU,最便宜的那种就行。
该CNN的训练样本分为两类
一共10类音频,每类100首歌曲,每首歌曲分割为11张图。即每类1100张图。
训练集:每类的前1000张图。
测试集:每类的后100张图。
代码如下:
train_list = ['/data/train9.tfrecords','/data/train8.tfrecords','/data/train7.tfrecords',
'/data/train6.tfrecords', '/data/train5.tfrecords','/data/train4.tfrecords',
'/data/train3.tfrecords', '/data/train2.tfrecords','/data/train1.tfrecords',
'/data/train0.tfrecords']
test_list = ['/data/test9.tfrecords','/data/test8.tfrecords','/data/test7.tfrecords',
'/data/test6.tfrecords', '/data/test5.tfrecords','/data/test4.tfrecords',
'/data/test3.tfrecords', '/data/test2.tfrecords','/data/test1.tfrecords',
'/data/test0.tfrecords']
# 随机打乱顺序
img, label = read_and_decode_tfrecord(train_list)
img_batch, label_batch = tf.train.shuffle_batch([img, label], num_threads=2, batch_size=batch_size_, capacity=10000,
min_after_dequeue=9930)
test_img, test_label = read_and_decode_tfrecord(test_list)
test_img_batch, test_label_batch = tf.train.shuffle_batch([test_img, test_label], num_threads=2, batch_size=batch_size_, capacity=1000,
min_after_dequeue=930)
输入数据是256*256*1的形状。CNN结构如下图。
本文使用4层Conv卷积层4层Pooling池化层,卷积层使用elu()作为激励函数,一层全连接层搭建一个卷积神经网络。下面对该网络结构进行详细说明:
- 卷积层1的卷积核大小为3*3,步长为1,卷积核个数为64。池化层1采取最大值子采样max pooling的方式,步长为2,核大小为2*2,padding设置为SAME,即填充像素保持原大小。
- 卷积层2的卷积核大小为3*3,步长为1,卷积核个数为128。池化层2采取最大值子采样max pooling的方式,步长为4,核大小为4*4,padding设置为SAME,即填充像素保持原大小。
- 卷积层3的卷积核大小为3*3,步长为1,卷积核个数为256。池化层2采取最大值子采样max pooling的方式,步长为4,核大小为4*4,padding设置为SAME,即填充像素保持原大小。
- 卷积层4的卷积核大小为3*3,步长为1,卷积核个数为512。池化层2采取最大值子采样max pooling的方式,步长为4,核大小为4*4,padding设置为SAME,即填充像素保持原大小。
- 全连接层输入节点数为2*2*512,输出节点数为128。elu()函数激活全连接层。再使用随机失活(dropout)实现神经网络的正则化。
- 输出结果层,给出预测结果。
代码如下:
CNN相关参数指标:
每批大小:64
学习率:0.001
损失函数和优化器定义。
batch_size_ = 64
lr = tf.Variable(0.001, dtype=tf.float32)
x = tf.placeholder(tf.float32, [None, 256, 256, 1],name='x')
y_ = tf.placeholder(tf.float32, [None],name='y_')
keep_prob = tf.placeholder(tf.float32)
predict_y = define_predict_y(x)
tf.add_to_collection("predict", predict_y)
# 将label值进行onehot编码
one_hot_labels = tf.one_hot(indices=tf.cast(y_, tf.int32), depth=10)
# 定义损失函数和优化器
#loss = -tf.reduce_sum(one_hot_labels * tf.log(predict_y))
loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=predict_y, labels=one_hot_labels))
optimizer = tf.train.AdamOptimizer(learning_rate=lr).minimize(loss)
# 准确度
a = tf.argmax(predict_y, 1)
b = tf.argmax(one_hot_labels, 1)
correct_pred = tf.equal(a, b)
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
训练过程:
max_acc=0
f=open('./ckpt/acc.txt','w')
with tf.Session() as sess:
print("训练模式")
# 如果是训练,初始化参数
sess.run(tf.global_variables_initializer())
# 创建一个协调器,管理线程
coord = tf.train.Coordinator()
# 启动QueueRunner,此时文件名队列已经进队
threads = tf.train.start_queue_runners(sess=sess, coord=coord)
# 定义输入和Label以填充容器,训练时dropout为0.25
for step in range(8000):
#print("step:",step)
b_image, b_label = sess.run([img_batch, label_batch])
#_, train_accuracy = sess.run([optimizer, accuracy], feed_dict={x: b_image, y_: b_label,keep_prob: 1})
# print("step = {}\ttrain_accuracy = {}".format(step, train_accuracy))
optimizer.run(feed_dict={x: b_image, y_: b_label,keep_prob: 1})
if step % 100 == 0:
t_image, t_label = sess.run([test_img_batch,test_label_batch])
_, test_accuracy = sess.run([optimizer, accuracy], feed_dict={x: t_image, y_: t_label,keep_prob: 1})
print("测试集:step = {}\ttrain_accuracy = {}".format(step, test_accuracy))
f.write(str(step+1)+', train_accuracy: '+str(test_accuracy)+'\n')
#下面这一段是CNN模型参数的保存,可选
if test_accuracy>max_acc:
max_acc=test_accuracy
saver.save(sess,'./ckpt/music.ckpt',global_step=step+1)
f.close()