基于深度学习的音乐推荐系统(二)用于语谱图分类的卷积神经网络结构

Tensorflow1.13

极客云GPU服务器

极客云注册地址

用这个链接可以免费获得10元优惠券,好像是不需要充值就可以用。

 本系统用单核GPU,最便宜的那种就行。

该CNN的训练样本分为两类

一共10类音频,每类100首歌曲,每首歌曲分割为11张图。即每类1100张图。

训练集:每类的前1000张图。

测试集:每类的后100张图。

代码如下:

train_list = ['/data/train9.tfrecords','/data/train8.tfrecords','/data/train7.tfrecords',
			  '/data/train6.tfrecords', '/data/train5.tfrecords','/data/train4.tfrecords',
              '/data/train3.tfrecords', '/data/train2.tfrecords','/data/train1.tfrecords',
              '/data/train0.tfrecords']
test_list = ['/data/test9.tfrecords','/data/test8.tfrecords','/data/test7.tfrecords',
			  '/data/test6.tfrecords', '/data/test5.tfrecords','/data/test4.tfrecords',
              '/data/test3.tfrecords', '/data/test2.tfrecords','/data/test1.tfrecords',
              '/data/test0.tfrecords']
# 随机打乱顺序
img, label = read_and_decode_tfrecord(train_list)
img_batch, label_batch = tf.train.shuffle_batch([img, label], num_threads=2, batch_size=batch_size_, capacity=10000,
                                                min_after_dequeue=9930)
test_img, test_label = read_and_decode_tfrecord(test_list)
test_img_batch, test_label_batch = tf.train.shuffle_batch([test_img, test_label], num_threads=2, batch_size=batch_size_, capacity=1000,
                                                min_after_dequeue=930)
 

输入数据是256*256*1的形状。CNN结构如下图。

本文使用4层Conv卷积层4层Pooling池化层,卷积层使用elu()作为激励函数,一层全连接层搭建一个卷积神经网络。下面对该网络结构进行详细说明:

  • 卷积层1的卷积核大小为3*3,步长为1,卷积核个数为64。池化层1采取最大值子采样max pooling的方式,步长为2,核大小为2*2,padding设置为SAME,即填充像素保持原大小。
  • 卷积层2的卷积核大小为3*3,步长为1,卷积核个数为128。池化层2采取最大值子采样max pooling的方式,步长为4,核大小为4*4,padding设置为SAME,即填充像素保持原大小。
  • 卷积层3的卷积核大小为3*3,步长为1,卷积核个数为256。池化层2采取最大值子采样max pooling的方式,步长为4,核大小为4*4,padding设置为SAME,即填充像素保持原大小。
  • 卷积层4的卷积核大小为3*3,步长为1,卷积核个数为512。池化层2采取最大值子采样max pooling的方式,步长为4,核大小为4*4,padding设置为SAME,即填充像素保持原大小。
  • 全连接层输入节点数为2*2*512,输出节点数为128。elu()函数激活全连接层。再使用随机失活(dropout)实现神经网络的正则化。
  • 输出结果层,给出预测结果。

代码如下:

CNN相关参数指标:

每批大小:64

学习率:0.001

损失函数和优化器定义。

batch_size_ = 64
lr = tf.Variable(0.001, dtype=tf.float32)
x = tf.placeholder(tf.float32, [None, 256, 256, 1],name='x')
y_ = tf.placeholder(tf.float32, [None],name='y_')
keep_prob = tf.placeholder(tf.float32)
predict_y = define_predict_y(x)
tf.add_to_collection("predict", predict_y)

# 将label值进行onehot编码
one_hot_labels = tf.one_hot(indices=tf.cast(y_, tf.int32), depth=10)
# 定义损失函数和优化器
#loss = -tf.reduce_sum(one_hot_labels * tf.log(predict_y))
loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=predict_y, labels=one_hot_labels))
optimizer = tf.train.AdamOptimizer(learning_rate=lr).minimize(loss)
# 准确度
a = tf.argmax(predict_y, 1)
b = tf.argmax(one_hot_labels, 1)
correct_pred = tf.equal(a, b)
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

训练过程:

max_acc=0
f=open('./ckpt/acc.txt','w')
with tf.Session() as sess:
	print("训练模式")
	# 如果是训练,初始化参数
	sess.run(tf.global_variables_initializer())
	# 创建一个协调器,管理线程
	coord = tf.train.Coordinator()
	# 启动QueueRunner,此时文件名队列已经进队
	threads = tf.train.start_queue_runners(sess=sess, coord=coord)
	# 定义输入和Label以填充容器,训练时dropout为0.25
	for step in range(8000):
		#print("step:",step)
		b_image, b_label = sess.run([img_batch, label_batch])
		#_, train_accuracy = sess.run([optimizer, accuracy], feed_dict={x: b_image, y_: b_label,keep_prob: 1})
		# print("step = {}\ttrain_accuracy = {}".format(step, train_accuracy))
		optimizer.run(feed_dict={x: b_image, y_: b_label,keep_prob: 1})
		if step % 100 == 0:
			t_image, t_label = sess.run([test_img_batch,test_label_batch])
			_, test_accuracy = sess.run([optimizer, accuracy], feed_dict={x: t_image, y_: t_label,keep_prob: 1})
			print("测试集:step = {}\ttrain_accuracy = {}".format(step, test_accuracy))
			f.write(str(step+1)+', train_accuracy: '+str(test_accuracy)+'\n')
			#下面这一段是CNN模型参数的保存,可选
			if test_accuracy>max_acc:
				max_acc=test_accuracy
				saver.save(sess,'./ckpt/music.ckpt',global_step=step+1)
		
	f.close()

训练效果展示:

  • 5
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值