原理:随机初始化权重与偏执,将数据正向传播得到最终的结果,然后计算与结果的误差,将误差反向传播调整权重与偏置。 输入层的神经元结构: 值:输入的值 输出:将值输出到其他神经元 权重:输出其他神经元的一个乘数系数 中间神经元结构: 输入:其他神经元传到该神经元的值乘以对应权重 偏置:一个常数 值:输入值之和加上偏置 激活函数:relu,sigmod,tanh 输出:将值输入激活函数所得的值 权值:输出其他神经元的一个乘数系数 输出层神经元结构: 输入:其他神经元传到该神经元的值乘以对应权重 偏置:一个常数 值:输入值之和加上偏置 激活函数:relu,sigmod,tanh 输出:将值输入激活函数所得的值 输出层的误差计算 = 输出*(1-输出)*(期望-输出) //期望:有监督学习中的标签,比如你输入一组数据希望得到的结果为1 中间层的误差计算 = 输出*(1-输出)*上层反馈误差*权重 更新权重 = 当前权重+学习率*反馈误差*输出 更新偏置 = 当前偏置+学习率*反馈误差 学习率=1/迭代次数 得到最终所有的权重和偏置完成模型训练
BP神经网络
最新推荐文章于 2022-02-16 14:57:29 发布