1 线性回归:
给定一个数据集(x),我们需要获得一个对应的输出(y), y = h(x),如果是线性拟合,则为:
y = kx + b;可以扩展 , 进一步为
在给定样本 条件下, 使得 loss_function :
求解: 令 .
2 线性分类:
线性分类与线性回归,从输出角度,分别是属于某类的概率与回归具体值,参数的意义也不同,一个是寻找最佳分类直线,一个是最佳拟合直线。在此我们常用Sigmoid函数,通常利用梯度下降方式来优化。
,其中
是学习率。
3:对数回归与多分类回归
对数回归:
Softmax:
4:神经元模型与作用函数
为神经元模型,常见的激活函数:
、
、
以上三式子分别时Sigmoid 、Relu 、Tanh.通常扮演着如下角色:
a:激活函数使得神经网络能够学习和表示非线性函数关系。如果没有激活函数,多层神经网络将等效于单个线性变换,无法捕捉复杂的数据模式
b:过引入非线性变换,激活函数增加了神经网络的表达能力,使其能够逼近任意复杂的函数。这意味着神经网络可以更好地拟合训练数据,并在未见过的数据上进行泛化。
c:某些激活函数(如 ReLU)具有良好的梯度特性,可以帮助减轻梯度消失问题。梯度消失是指在深层网络中,梯度逐渐变小导致训练变得困难。通过使用某些激活函数,特别是那些能够保持梯度在较大范围内的函数,可以有效缓解这个问题
5 感知机:
感知机可以解决线性分类问题,
附上 课堂线性回归结果: