机器学习基础(一)——LinearRegression

假设输入输出间为线性关系,其中 xRn x ∈ R n , wRn w ∈ R n ,预测输出为 yˆ y ^ 。定义输出为:

yˆ=wTX y ^ = w T X

使用均方误差作为P来衡量模型的性能,则损失函数为(其中 12m 1 2 m 的2加在常数项不影响结果):

loss=12mi=1m(yˆ(i)y(i))2 l o s s = 1 2 m ∑ i = 1 m ( y ^ ( i ) − y ( i ) ) 2

则目标任务则为:

argminloss:argmin12mi=1m(yˆ(i)y(i))2 a r g m i n l o s s : a r g m i n 1 2 m ∑ i = 1 m ( y ^ ( i ) − y ( i ) ) 2

可以直观的得出当 yˆy y ^ − y 时loss最小,则问题可转化为

argmin12m||yˆy||22 a r g m i n 1 2 m | | y ^ − y | | 2 2

Cost=12m||yˆy||22 C o s t = 1 2 m | | y ^ − y | | 2 2 ,对 w w 求导如下:

ddwCost=1md(Xwy)T(Xwy)dw d d w C o s t = 1 m d ( X w − y ) T ( X w − y ) d w

=12md(Xwy)T(Xwy)dw = 1 2 m d ( X w − y ) T ( X w − y ) d w

=12md(wTXTXwwTXTyyTXw+yTy)dw = 1 2 m d ( w T X T X w − w T X T y − y T X w + y T y ) d w

标量转置为其本身:

=12md(wTXTXw2yTXw+yTy)dw = 1 2 m d ( w T X T X w − 2 y T X w + y T y ) d w

ddwCost=1mXT(Xwy) d d w C o s t = 1 m X T ( X w − y )

使用梯度下降法同步更新 w w

w=wαddwCost w = w − α d d w C o s t

其中“偏置”通过训练时在样本中增加全1个体获取。


Note1:矩阵求导只是将单个数据的求导矩阵化,根据矩阵的组成方式即可得出结果,如果个别求导过程存在疑问,可以参考:https://en.wikipedia.org/wiki/Matrix_calculus#Scalar-by-vector_identities

以上为线性回归的基本思想,更具体描述待补充。
具体实现见:https://github.com/Alnlll/ML/tree/master/lr

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值