神经网络小知识
小知识:
一.输入与卷积函数进行卷积得到的结果有时成为特征映射(feature map)
二.张量是多维数组
三.卷积运算通过
稀疏交互(sparse interactions):使核的大小远小于输入的大小
参数共享(parameter sharing):constrain the neurons in each depth slice to use the same weights and bias。用前参数量:105,705,600,用后参数量:34,944。
等变表示(equivariant representa- tions)
改进机器学习系统
四、卷积输出大小计算
宽W2=(W1−F+2P)/S+1
高H2=(H1−F+2P)/S+1
深度D2=K
(F为卷积核尺寸、p为padding填充、s为stride步长、k为卷积核数量)
五、ImageNet预训练是常规做法:下载经过预训练的模型并在数据上进行微调。您几乎不需要从头训练ConvNet或从头开始设计ConvNet(CNN)。