这是一个最简单的神经网络模型图,第一层是输入层,第二层是隐藏层,第三层是输出层。第一层的输入数据分配一个权重后,计算的结果并用激活函数进行激活再传给隐藏层,然后隐藏层再对数据进行权重分配,计算出结果传给输出层,输出层再用激活函数将最后结果输出。反向传播法的用途在于:当最后输出层的数据与真实数据相比有误差时,会反向更新权重参数。
首先来看前向传播的过程:(激活函数选用sigmoid函数)
神经元h1的输入加权和:
神经元h2的输入加权和:
神经元h1的输出:
这是一个最简单的神经网络模型图,第一层是输入层,第二层是隐藏层,第三层是输出层。第一层的输入数据分配一个权重后,计算的结果并用激活函数进行激活再传给隐藏层,然后隐藏层再对数据进行权重分配,计算出结果传给输出层,输出层再用激活函数将最后结果输出。反向传播法的用途在于:当最后输出层的数据与真实数据相比有误差时,会反向更新权重参数。
首先来看前向传播的过程:(激活函数选用sigmoid函数)
神经元h1的输入加权和:
神经元h2的输入加权和:
神经元h1的输出: