网络结构:
每一个节点所做的工作:
1、将输入的值(原始输入或者上一层的输入)进行线性组合
2、使用激活函数进行非线性处理
逻辑回归(一种最简化的网络结构):
中间的节点使用W和b参数对输入的x1、x2、x3进行线性化,然后通过激励函数得到激励后的预测值。
激励函数:
激励函数的作用是提供规模化的非线性化能力
三种基本的激励函数:
Sigmoid函数:
变化区间为0~1,优点是在整个区间段可导,缺点是在坐标系上不是中心对称的。
tanh函数:
对Sigmoid函数进行平移得到的,使用该函数不需要使用数据中心化,使得表现更好。
上述两个函数的共同缺点是:
在x比较小或者比较大的时候,其学习速率较慢。
ReLU函数:
效率更高,但是其在0处的导数会导致问题,所以可以对其进行改造。其是目前使用较多的激励函数。
损失函数:
用于评价学习出来的y值与真实的y值之间的差异。
图示的函数是单次训练损失的计算公式:
y^是学习到的值,y是原始的值
全部训练的损失:
梯度下降:
由于真实学习的y与实际的y存在差异,所以,要以此根据损失函数来调整w和b以使得损失函数达到局部最小值,从而使学习的输出y更靠近实际的输出y,这是一个过程,需要多次对w和b进行调整,以达到最优值。
α是为了不使得一次的求导对w的影响太大。
网络向量化(神经网络的向前传播、神经网络的运算、神经网络的预测):
网络梯度下降(反向传播):
以上来自慕课网网课