近日我看BP神经网络,有这样一点心得:
所谓“反向传播”,并不是误差真的由后面传过来的,而是因为,在计算第i层到第i+1层 之间
的网络权值的修改量时,要用到要用到第i+1层网络输出的误差值,而第i+1层网络输出的误差值
的求取,却要用到第i+2层网络的的误差值。因此,这个误差从整个网络系统的输出层一层一层
往前传播,直到输入层,正是在这一层一层从后往前的递推计算中,神经网络系统的所有权值被
修改,以更好的完成系统的功能。
因此,BP网络(Back Progation)才被称为“反向传播”网络。