Coursera-Machine Learning 笔记(二)Linear Regression with multiple variables

Coursera-Machine Learning 笔记(二)

TOPIC: Linear Regression with multiple variables

摘要

本文是斯坦福大学机器学习公开课的听课笔记。课程内容为第二周的多元函数线性回归。

第一课,Multiple Features

讲述的是多元函数的记法。 简单的说,用sub-script表示特征维度, 用up-script表示样本编号。将上节课一维的特征扩展到多维的特征。

第二课,Linear Regression with multiple variables

提出了 多元函数线性回归模型

h(x)=theta * x

这里theta 是一个n+1维向量。 x包含了 x0=1

定义了损失函数:

这里写图片描述

根据梯度下降的一般步骤指定了更新规则。

todo

比较有意思的是, 这一部分我用matlab 做了实现。
发现了一些有趣的问题。

第一, 对于我的训练集, 学习速率必须设置为0.00005之类的非常小的值才能收敛。我的训练集是100个自动生成的数据。目标函数是

y=3+4x1+5x2+6x3+7x4

第二, 在两元线性回归时,初始点选择(0,0)和(10,10)都能收敛到结果。但是上面的模型五个位置量时,初始点选择在(3,3,3,3,3)比全0要强。收敛结果很接近。(依然不在3 4 5 6 7).
考虑函数复杂之后,更容易陷入局部最优。

这部分代码在github/coldzoo上可以找到

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值