“心中有歌,到处都是舞台”。
![95b6e8d89244df9a8b1244d7f334e36b.png](https://i-blog.csdnimg.cn/blog_migrate/b5b6f9a4be28a35b34471135f1988d94.jpeg)
自从投入了自编码的深度学习研究后,一路走来就是磕磕碰碰。
上一篇将地震信号用在了自编码卷积神经网络降噪(见《地震去噪新探索——无监督卷积神经网络实战》),结果那叫一个惨。如下面的图示,上边是噪声图,下边是去噪图:
![d86bb6186354ccdbe52ca8fa502c9a81.png](https://i-blog.csdnimg.cn/blog_migrate/c09986b6bf67ebd45ee126645af3e242.jpeg)
![44205ace3f302146c7e6da80bd6fc852.png](https://i-blog.csdnimg.cn/blog_migrate/ae58afbdf75cfde2c127be8d0eac4442.jpeg)
从去噪效果来看,仅能获取到一些支离破碎的有效信号,这是一张完全拿不出手的效果图。
01屡败屡战的调优之旅
卷积神经网络不是更能学习到特征细节,性能更好吗?为啥我做出来的效果如此之惨?
前期的参数设置包括:使用10000个28*28的训练小块,训练epoch:5,学习率:0.001,优化器:tf.train.AdamOptimizer(learn).minimize(cost),LOSS函数:tf.nn.sigmoid_cross_entropy_with_logits(labels=targets_, logits=logits_),cost = tf.reduce_mean(loss)
网络结构图为:
![f2a7602de2a966cc4c6e75d7039f16ca.png](https://i-blog.csdnimg.cn/blog_migrate/80b0059daabd95035af611e9ab87bebe.jpeg)