线性回归方程
为什么要说线性回归方程呢?
因为卷积神经网络的基础是神经网络——神经网络的基础就是线性回归方程 !
- 一个简单的线性回归问题
在这个问题里面,我们就是要拿x系列数据通过一定的方法去计算参数a,b,c,d
最后得到一个最优解, 使得用方程算的值 与 真值之间的差值(代价)最小
引申到神经网络中就是 a,b,c就是x1,x2,x3的权值 d就是偏置值
神经网络
神经网络 就是通过 输入的 x系列数据(训练数据)和 y系列数据(训练数据的标签)去训练 参数(权值 和 偏执值) ,每一次所有数据循环一次(迭代一次)就会算出一个预测值 然后 神经网络 会把这个 预测值和你输入的标签 进行一次计算 ,通过 计算所的值(这个值就是看你里真值还有多少的距离)去改变参数的大小 使参数越来越接近最优解 一直迭代到符合你的要求为止
- 线性回归有一个问题
就是线性拟合的是一条直线 去线性分布的数据可以 就如图左数据 遇到非线性的数据 如图右 效果就很差了
所以科学家为了解决这个问题就在计算的时候加了一个非线性激励函数,把线性转为非线性(可以理解把左图中绿色的直线变得弯曲) ——未来具体说激励函数(等我觉得我知道了以后)
下图就是神经网络的一个计算单元
weight(权) bias(偏置值) Activation function (激励函数)
上图就是计算的过程 训练数据 乘 权值 加 偏置值 经过激励函数 得出计算的值
下图就是一个计算单元在神经网络中的位置(右边就是一个简单的神经网络)
就这样经过多次迭代 计算参数 得到最优解 就是神经网络的训练过程(一开始不要深究右图 会让自己混淆)
知道神经网络运行的大概流程就好
我有很多想写 但是写不出来—————
图片来源于网络 如有问题可以联系我