本文将从两个方面阐述神经网络中的softmax是如何更新参数的。
第一部分:BP算法怎么更新参数?缺点是什么?
第二部分:用了softmax怎么更新参数?
一、BP算法用二次经验误差作为代价函数
我们已经知道,BP算法在前向传播中,在每一个功能节点上先是线性组合算得一个状态值,然后用Sigmoid转换成一个激活值,最后一层中把这个激活值o跟真是标签做差求平方,得到某个样本的二次经验误差,作为向前矫正参数的代价函数。
E(i)=12∥∥y(i)−a(i)∥∥
模型最终的目标就是要让所有训练样本的这个误差之和最小。
Loss=∑i=0nE