神经网络 softmax 用于计算所属不同目标值的概率 损失函数 交叉熵损失: H y ′ ( y ) = − ∑ i y i ′ log y i H_{y'}(y) = -\sum_iy_i' \log y_i Hy′(y)=−∑iyi′logyi 其中 y ′ y' y′代表one-hot编码的真实结果值, y i y_i yi代表softmax计算得到的概率 优化方法 反向传播算法:运用梯度下降更新参数 卷积神经网络 卷积层 过滤器、padding、步长 激活层 激活函数(sigmod、relu) 池化层