imagenet上使用深度卷积网络
背景介绍
目前的数据集太小,而复杂的图像分类和识别任务需要更多的数据训练。
对于大量的数据又需要容量大的网络,cnn网络可以通过调节宽度和深度来调节网络的容量。cnn相比于标准的前馈网络有较少的链接和参数(归功于卷积操作共享权重),易于训练。
与此同时,高性能gpu以及经过优化的2d卷积可以帮助训练。
本文主要贡献:
1、训练了深度卷积网络并取得了很好的分类效果
2、实现了高性能的gpu 2D卷积
3、通过一些特性提高了网络性能并减少了网络运行的时间
4、通过一些方法减少过拟合
5、网络包含5层卷积和3层全连接,并且网络的深度影响准确率
具体的结构:
1、Relu
相比于tanh和sigmod,ReLU减少训练时间,如下图,