我所觉得的当前卷积神经网络可优化的地方
1.卷积核的随机初始化:卷积神经网络比不可少的就是卷积层了(严格来说并不是卷积,而是互相关运算),当前大多数卷积层会用相同形状的多个卷积核(可以理解为信号处理中的滤波器)对输入进行互相关运算。为了使得每个卷积核能够抽取输入的不同特征,一般会对卷积核做随机初始化,使得在后续的反向传播中,能够学习到不同的参数。但是,这种随机初始化的方法并不能保证卷积核能够最终学习到不同的特征。从卷积层中打印出来的卷积结果也可以发现,不同卷积核抽取出来的特征差别并不是很大。因此,我觉得有必要对卷积核的初始化做一定的研究和特定的设计。