深度学习,比如卷积神经网络(CNN)要完成训练任务,需要一遍又一遍的学习。一般来说,学习次数越多,学习效果越好。
那到底要学习多少次才是个头呢?我陷入了思考。
01 是不是误差越小,学习效果就越好?
比如前面研究的自编码去噪,见前文《地震无监督自编码降噪怎样做出效果,我想清楚了几个关键问题 》。我训练的噪声图片是这样的:
![f33f4b4ac3608993aa74fc1ae4dcc59c.png](https://i-blog.csdnimg.cn/blog_migrate/1bb073bd19cd28aef2ff662d896ffd9f.jpeg)
那没有噪声的图片是这样的:
![9ccd307bd683ae7d05b9ff654051e4c0.png](https://i-blog.csdnimg.cn/blog_migrate/8a7b79bda6198bffb2eef9676656a72f.jpeg)
接下来就开始不同迭代的训练。20次迭代的训练误差的结果见图:
![9e3c2e10a20b8da0644b38d99f8a5b94.png](https://i-blog.csdnimg.cn/blog_migrate/73d5af8d6b102b00da6ed5fa4fe267f8.jpeg)
结果就是LOSS一路下降,也没有看到头。
那预测的效果是怎样的呢?来看看1个迭代、5个迭代、10个迭代、15个迭代和2