![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/45efb5d5fda8185f442843a31ce14b74.png)
广义增量规则的公式
- 对于单层神经网络的增量规则,已经过时啦,现在存在一种更广义的增量规则形式。对于任意激活函数,增量规则表示如下式
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/ece075e9c2e3a49f4cbecedb023676a2.png)
- 它与前一节的delta规则相同,只是ei被替换为δi。在这个方程中,δi被定义为:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/a2aee8e0484db266c98e57a2a5b95831.png)
ei =输出节点i
vi =输出节点i的加权和
φ‘=输出节点i的激活函数φ的导数
s型函数的增量规则
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/f510643a248b28f0b032fd0e9b4c8df4.png)
对于该函数进行求导
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/ff1c953bc1aa4c69f7d47f135f91b49d.png)
代入公式:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/50d7befda123b8859c28f5b55d6e05ac.png)
最后,我们可以得到s型函数的增量规则:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/5aad2a94de88aa0fc6fd18a0ff18a2a6.png)
虽然权值更新公式相当复杂,但它保持了相同的基本概念,即权值是根据输出节点误差ei和输入节点值xj的比例来确定的