前言:最近在深度学习中,了解到多分类的softmax算法,且利用该算法在进行反向传播时除了损失函数与sigmoid的损失函数不一样,其他梯度递推基本一致。这里主要对softmax算法的反向传播求解dZ进行了公式推导。其他部分与sigmoid算法求解一致。
符号说明
<
前言:最近在深度学习中,了解到多分类的softmax算法,且利用该算法在进行反向传播时除了损失函数与sigmoid的损失函数不一样,其他梯度递推基本一致。这里主要对softmax算法的反向传播求解dZ进行了公式推导。其他部分与sigmoid算法求解一致。
符号说明
<