好久没有更新博客了
毕业设计进展
2016年6月12日09:54:40 数据集很重要,今天还找找数据集好了。
2016年6月14日09:04:15 deep CNN model pre-trained on large scale dataset
proper feature refining schemes
feature representation in a new domain
similarity learning
ImageNet系列总结
2012 没啥可说的 baseline
2013 主要分析了2012中各个因素的影响,主要内容如下
1,层数越高,提取的特征越抽象。
2,底层的先稳定,高层后稳定。
3,底层的对微小的变化都很敏感,高层对整体把握。
4,卷积核变小、步幅变小,结果有提高。
5,模型总体深度很重要。
6,使用大型数据集,然后进行fine-tunning方法。
2014
VGG 使用更小的filter和间隔,图片多尺度变换,multi-view
GoogleNet 使用inception单元
2015
MSRA 从激活函数入手,使得可以训练更多层
Judicious use of techniques to prevent overfitting such as dropout, weight decay, data augmentation, pre-training, pseudo-labeling and parameter sharing, has enabled us to train very large models with up to 27 million parameters on this dataset.
http://benanne.github.io/2015/03/17/plankton.html#architecture