机器学习之回归算法

1.一元线性回归

输入xi yi
预测值 f(xi) = wxi + b 使f(xi) 接近yi
( w , b ) = a r g m i n ∑ i = 1 n ( f ( x i ) − y i ) 2 (w, b) = argmin \sum_{i = 1}^n (f(xi) - yi)^2 (w,b)=argmini=1n(f(xi)yi)2
注:基于均方误差最小化来进行模型求解成为最小二乘法
上式也可以使用误差正态分布来推算出公式
那对上式分别对w b求导,导数为零极为极值点。此时就可以求出w,b
α E / α w = 2 ( w ∑ i = 1 n ( x i ) 2 − ∑ i = 1 n ( y i − b ) x i ) \alpha E/\alpha w = 2(w\sum_{i = 1}^n (xi)^2 - \sum_{i = 1}^n (yi - b)xi) αE/αw=2(wi=1n(xi)2i=1n(yib)xi)
α E / α b = 2 ( m b − ∑ i = 1 n ( y i − w x i ) ) \alpha E/\alpha b = 2(mb - \sum_{i = 1}^n (yi - wxi)) αE/αb=2(mbi=1n(yiwxi))
令式都等于零,连立方程即可求出w, b

2.多元线性回归

基本原理和一元线性一致,

样本是由d个属性描述。即一元线性回归xi表示一个样本。而多元就是xi表示的是一个向量。

f ( x i ) = w T x i + b f(xi) = w^Txi + b f(xi)=wTxi+b
为了方便计算,将b放入w中 也就是w’ = (w;b) 相应的xi扩充一个1的列
那可以得到:
w ′ = a r g m i n ( y − X w ) T ( y − X w ) w' = argmin(y - Xw)^T(y - Xw) w=argmin(yXw)T(yXw)
对w进行求导得到:
α E / α w = 2 X T ( X w − y ) \alpha E / \alpha w = 2X^T(Xw - y) αE/αw=2XT(Xwy)
X T X X^TX XTX满秩,则可以得到:
w = ( X T X ) − 1 ( X T y ) w = (X^TX)^{-1}(X^Ty) w=(XTX)1(XTy)
如果不是满秩,因为变量和样例数往往不是相同的。通常引入正则化。

3.逻辑回归

逻辑回归其实可以理解为分类。
sigmod函数:
g ( x ) = 1 / ( 1 + e − z ) g(x) = 1 / (1 + e^{-z}) g(x)=1/(1+ez)
在这里插入图片描述
输入值映射到[-1, 1]
在这里插入图片描述
在这里插入图片描述
分类任务:
在这里插入图片描述
整合之后(而分类情况 y只有1和0两种情况):
在这里插入图片描述
也就是求取似然函数:
在这里插入图片描述
由于惩罚求起来比较困难,转为对数似然成为加法:
在这里插入图片描述
由于需要求最大值,故转换为梯度下降任务 J = -(1/m)*l
对该式子求导得到导数:
在这里插入图片描述
参数更新:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值