(1)线性回归问题:利用数理统计中回归分析,来确定两种或两种以上变量间相 互依赖的定量关系的一种统计分析方法。
学习过程:
![](https://i-blog.csdnimg.cn/blog_migrate/cb04055fedb005e060b3e56e6d0c693f.png)
步骤:1.选取样本:
2.构造代价函数:
3.对代价函数求偏导求极值,求解得到:
其中:
(2)线性分类问题:线性分类器则透过特征的线性组合来做出分类决定,以达到此种目的。简言之,样本通过直线(或超平面)可分。
![](https://i-blog.csdnimg.cn/blog_migrate/9c0a47675996120b90cd30f6d4ff6c22.png)
Sigmoid函数:,其中
,该函数的作用是:将分界直线产生的值归一化。
步骤:1.选取样本:
2.构造代价函数:,其中
3.梯度下降法求解偏导:,其中
(3)指数回归
指标函数:
![](https://i-blog.csdnimg.cn/blog_migrate/179e1f1dcd1f0a1608eceac9fc774d34.png)
梯度:
![](https://i-blog.csdnimg.cn/blog_migrate/78de75033460b49a9d52c0fb7aef908e.png)
(4)多分类回归
指标函数:
![](https://i-blog.csdnimg.cn/blog_migrate/a4ee160fce6e5d32ef535a4eee58fb00.png)
梯度:
![](https://i-blog.csdnimg.cn/blog_migrate/7f6756c6c28572cc85c4ff13f3d2d9c0.png)
(5)神经元模型
![](https://i-blog.csdnimg.cn/blog_migrate/c683b0d6b0cd9bcaed257a4eec61dee2.png)
单个神经元模型:,其中
作用函数:
1.非对称型Sigmoid函数
![](https://i-blog.csdnimg.cn/blog_migrate/70948225b2f6b76d13c475070fbe2487.png)
2.对称型Sigmoid函数
![](https://i-blog.csdnimg.cn/blog_migrate/3d30c4a7858dce98cb9083bbb183cddb.png)
3.对称型阶跃函数
![](https://i-blog.csdnimg.cn/blog_migrate/7f406bb43e8e0097ba0e16368cafa3d2.png)
Hebb规则:连接权值的调整量与输入量与输出的乘积成正比:
(6)BP算法:
该算法由正向传播和反向传播组成:
正向传播是输入信号从输入层经隐层,传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。
反向传播是将误差(样本输出与网络输出之差)按原联接通路反向计算,由梯度下 降法调整各层节点的权值和阈值,使误差 减小。
![](https://i-blog.csdnimg.cn/blog_migrate/0caddccb72e8346d19881d0c737467a0.png)
基本思想:
选取性能指标:
![](https://i-blog.csdnimg.cn/blog_migrate/bff28f81ca6bb1c56dcc5b1dcc152bdd.png)
网络训练的目的,是使对每一个输入样本,调整网络参数,使输出均方误差最小化。
基本步骤:
![](https://i-blog.csdnimg.cn/blog_migrate/320d0675ce5aef587d905a0317ec2b72.png)
具体步骤:
假设只有一层隐含层,输入参考信号,前向传播
1.求各神经元输出为:
![](https://i-blog.csdnimg.cn/blog_migrate/1377d5a94028d34cd92d22fae3efe897.png)
2.求输出和隐含层之间权值梯度:
![](https://i-blog.csdnimg.cn/blog_migrate/b3c9dcd77b77a0a14d0234de0c03149c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/516cc4f99e1f80243a14b0d7504fe327.png)
3.求隐含层和输入之间权值梯度:
![](https://i-blog.csdnimg.cn/blog_migrate/2cd9ad543281e27db9c2f127dd4bd339.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ab88e0ffd80f8753dbd97932569ef680.png)
![](https://i-blog.csdnimg.cn/blog_migrate/0e70b387274625a0fe3776b40ce17093.png)
![](https://i-blog.csdnimg.cn/blog_migrate/b8e1a6ada7ce982f74d5b3e20dd7c13e.png)