关于神经网络两种模型训练方式思考:
1、第一种是一个样本的训练方式:
每次只输入一个样本,计算出均方误差,之后进行一次全局权值调整。然后依次的训练其他的样本,直到所有的样本都满足最后的模型,模型收敛!这种方法的缺点就是收敛太慢,但好处就是可以严格控制每个样本的误差量。
2、样本的批训练方式(常用):
将所有的样本依次输入网络,计算出各个样本的均方误差,然后累加所有的误差,进行一次全局权值的调整。这种训练方式很明显的优点是可以可以加快收敛方式,但是每个样本的误差量就保证不了,因为误差是总体的误差。