谷歌这篇文章,针对之前传统的dropout进行改进(随机drop,像素之间的相互关系仍然能够学习到,因此目前大多只在全连接层中用dropout),提出专门针对卷积层的dropout方法
找到一个代码运行了一下。(mnist数据集,两层卷积,两层全连接。)
加上DB(keep_prob=0.9,block_size=7)精确度98%
去掉DB 精确度99%
再次实验,去掉DB效果仍然比较好。
个人认为:DB应该不适用于层数少的小网络。
谷歌这篇文章,针对之前传统的dropout进行改进(随机drop,像素之间的相互关系仍然能够学习到,因此目前大多只在全连接层中用dropout),提出专门针对卷积层的dropout方法
找到一个代码运行了一下。(mnist数据集,两层卷积,两层全连接。)
加上DB(keep_prob=0.9,block_size=7)精确度98%
去掉DB 精确度99%
再次实验,去掉DB效果仍然比较好。
个人认为:DB应该不适用于层数少的小网络。