线性回归笔记

一、处理问题

对于给定的每个样本的一系列特征(x1, x2, ...xm)及其结果y,之间的关系可以用这种形式表示y=θ_1*x1+θ_2*x2+...θ_m*xm,那么可以建立这样的模型:

h_θ(x)=θx 用来对新的样本结果进行预测,θ和x都是m+1维向量,并且令x0=1。

二、参数求解

对于以上模型,需要对参数θ进行求解。

直觉上,我们期望得到的θ的解应当满足条件——对所有训练样本,使以下代价函数的值最小

代价函数J(θ)

该函数表示的含义是,使用模型根据样本的特征计算得到的假设结果值与样本实际结果的差的平方和最小,这样保证了对于训练样本整体而言,选择的参数θ是最优的。

而为了计算满足条件的θ,需要使用梯度下降法

其中α称为learning rate。

J(θ)对θ_j求偏导数的结果,当只有一个样本时为(θx-y)x_j,当有m个样本时为

(i=1,...m) (θx(i)-y(i))x(i)_j

梯度下降执行如下过程

这种方法在每次迭代中,对于每个θ_j,都要使用所有的样本数据对其进行更新,称为批梯度下降(batch gradient descent),当训练样本的数据集很大的,执行该算法的代价较大,可以选择另一种随机梯度下降:

这种方法,在每次更新时只考虑一个样本数据,这使得该方法的速度比批梯度下降快得多,但是该方法不能精确下降到全局最小值,而是会在最小值附近徘徊。



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值