网络优化方法
梯度下降算法
梯度下降算法是一种寻找使损失函数最小化的方法,从数学上的角度来看,梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数减少最快的方向
在进行模型训练时有三个基础的概念:
1.Epoch:使用全部的数据对模型进行以此完成训练,训练轮次
2.Batch_size:使用训练集中的小部分样本对模型权重进行以此反向传播的参数更新,每次训练每批次样本数量
3.Itation:使用一个Batch数据对模型进行一次参数更新的过程
反向传播算法(BP算法)
前向传播: 指的是数据输入的神经网络,逐层向前传输,一直到运算到输出层为止.
反向传播:利用损失函数 ERROR, 结合梯度下降算法,依次求各个参数的偏导,并进行参数更新
反向传播对神经网络各个节点的权重进行更新.一个简单的神经网络用来举例:激活函数为 sigmoid
08-28
944
08-27
677