卷积神经网络基础知识
注意:计算多类损失过层中,一般最后一层使用softmax激活函数。SGD:分批次进行训练,每一批次(随机的)进行损失的计算以及损失的反向传播。输出的特征矩阵channel与卷积核个数相同。其实到这里并没有结束,问:计算的损失是否指向全局最有的方向。结果:卷积核的channel与输入特征层的channel相同;针对不同的分类问题,我们会分别通过如下的公式计算损失。注意:学习率下降的太快可能还没收敛就停止训练。池化层没有训练参数。目的:为了使网络更快的收敛。可以发现结果满足概率分布。目的:进行图像特征的提取。
复制链接