1. 使用Batch Normalization可以避免covariate shift(可以简单理解为变量(或输入特征)变化)。这个是迁移学习中很重要的研究内容。
具体见http://blog.csdn.net/mao_xiao_feng/article/details/54317852
相关文献《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》
2. 对数据进行减均值和去相关(白化操作,常用的有PCA白化)操作可以加快训练。
具体见http://blog.csdn.net/elaine_bao/article/details/50890491
3. 上采样方法:最近邻、Deconv。。。
Deconv参考:http://blog.csdn.net/fate_fjh/article/details/52882134
Deconvolution两种经典实现方法:1)full convolution
2)记录pooling元素,反向扩充后卷积以填充0元素。