12.19 densenets完结
首先是densenet的结构图。传统的神经网络层与层之间一般只有L个输出,而从图中可以看到而我们的这个新的网络有L(L+1)/2个输出。每层的输入都是拿前面所有层的features map作为输入,同样它的features map也作为所有下面层的输入。
陆陆续续花了几天时间读完了densenets论文,感受确是颇多,单单只是在分类这一模块中,模型已经进步了许多。不是仅仅只是传统的思路,单一的加多模型的层数。模型从最近的VGG16,Resnet,Highway Nets, GoogleNets, FractalNets, 到最新的DenseNets。很多网络都基于这么一个结论:如果每层之间更短的联系,并且更接近输入和输出,那么训练就更加有效。
VGG16虽然已经有非常好的性能,但是它的参数巨大,且训练非常慢,训练不有效。Highway Nets提供了一种新的思路,它用一种旁路(bypassing paths)的想法。ResNets继承了它的想法并发扬光大,它可以直接的连接两层并将上一层的特征,与上一层的输出通过简单的相加作为下一层的输入,并且在训练中随机地舍去一些层来加快训连效率。Googlenets与Resnets非常地像,但是Googlenets提供了一种新的加深网络深度的方法可,通过