Coursera上Andrew Ng机器学习课程总结(一)

利用大约一个月的时间把coursera公开课Andrew Ng讲授的机器学习课程看完了,并且把8个编程联系也实现了,写篇总结来归纳下知识点。客观的来说,这门公开课很偏工程,老师对于数学知识能省则省,对于那些想初窥机器学习的同学,倒是很推荐看下。

机器学习按照训练集有无标签分为监督学习和无监督学习。监督学习,我们经常用它处理回归问题、分类问题,而课程里介绍的有:线性回归模型、logistics回归模型、神经网络及SVM模型;无监督学习,主要处理聚类的问题,课程里主要介绍的是K-means模型。

线性回归

线性回归问题,简单来说就是给出训练集,用线性函数来拟合这些数据,最后这个线性函数来计算给定自变量对应的因变量的值。

单变量的线性回归

我们的假设函数是 hθ(x)=θTx=θ0+θ1x1
为了使我们的假设函数能够更好的拟合训练集的数据,我们使用最小二乘法来定义代价函数

J(θ)=12mi=1m(hθ(x(i))y(i))2[1]

那么下面我们就需要极小化公式[1]
这里我们采用的方法即是梯度下降法(又叫做批量梯度法),给定一个学习速率或者说是步长 α ,不断更新 θ ,具体公式如下:
θj:=θjα1mi=1m(hθ(x(i))y(i))x(i)j[2]

为了能够使梯度下降法每次迭代,代价函数都能够减少,我们往往会画图来观察代价函数值是否每次都在减少。我们上面说的 α ,当我们设定这个值比较小的时候,梯度下降很慢才收敛,但是这个值很大,那么很可能我们的代价函数反而是增加的。

多变量的线性回归

特征向量标准化

之所以要进行特征向量的标准化,是因为各个特征变量的值往往差距比较大,在进行梯度下降法的时候,速度慢。一般而言,我们标准化是特征值减去特征向量的均值最后在除以特征向量的标准差。

多变量线性回归

在梯度下降时,每个 θ 的分量要同步更新,即在一次迭代过程中,不能更新完了 θ1 ,再用新的 θ1 更新 θ2

梯度下降法,有时候需要做特征向量的标准化,是不是感觉有些麻烦,那么下面介绍的方法就不需要做这样的数据预处理工作了,它就是标准公式法:

θ=(XTX)1XTy

Logistics回归

对于分类问题而言,假如使用线性回归模型,那么很可能存在噪声数据,导致我们的假设函数非常倾斜,那么就容易把正类判断为负类。

Logistics回归模型

want

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值