Andrew Ng的机器学习课程概述(一)

写在最前面

吴神的机器学习神课,网上也有很多写得很好的笔记了比如:很好的中文版更好的英文版 在视频看累的时候看看这个基本上也错过不了知识点。
这门课基本上算是入门的入门,概要地介绍了机器学习的各方面算法以及实际的简单运用,几乎不需要什么额外的数学知识(意思是你大概是本科学历学过高数线代概率论之类的这种)就能听懂,所以我也就做一个更简单的目录式的概要,以便可能想了解某个知识点的小朋友查阅一下以及记录下自己的学习历程。另外,视频的百度云链接在最后~

第一章 简介

机器学习到底是蛇,机器学习到底能搞蛇

A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T,as measured by P, improves with experience E.

大意就是“如果计算机程序对于任务T的 性能度量P 通过经验E得到了提高,则认为此程序对E进行了学习”,用人话讲就是如果做任务能得经验,那你就是学习到了。
然后,机器学习分类为有监督学习和无监督学习

  • 有监督学习(Supervised learning):每个输入样本是有标签的。举个例子就像我想用房间的面积来预测房间的价格,给出的样本是(面积,价格)的数对,这里的价格就是面积对应的“标签”,然后我再给一个面积,要预测出这个这个面积对应的价格,这就是靠有监督学习。
  • 无监督学习(Unsupervised learning):每个输入样本没有标签,一般是用来聚类。比如说有一堆用户,一部分看起来总喜欢访问A类型的网站,另一部分看起来总喜欢访问B类型的网站,你把这两类用户分类之后推送不同的东西。所以这里只有喜欢的网站类型,并没有什么喜欢网站类型对应的标签,这就是无监督学习。

第二章 Hypothesis

一个关键词就是假设(Hypothesis),就是你的预测函数,把x放进去可以得出一个y值(这里的x,y都是向量),里面有Θ是你要训练出来的值。

然后一个重点概念是代价函数(cost function),用来判断你的预测函数和正真的值的差距,而拟合的最终结果就是让这个代价函数最小化。

之后就谈到最小化的方法梯度下降法(gradient descent),利用代价函数对于Θ的偏导数来更新Θ,以得到最小的代价函数值。

第三章 矩阵知识

主要科普矩阵的知识,包括矩阵的运算,转置之类的,基本上都是课堂学过的。

第四章 多元线性回归

要注意的是在梯度下降法中要尽量将变量xi的范围控制在大致差不多的范围内,这样梯度下降会比较平稳;并减去平均值,就拥有了为0的均值。

除了梯度下降法,又介绍一种求解Θ的方法,正规方程(normal equation):
正规化

并介绍了一下XTX的可逆性问题。

第五章 Octave

就是讲Octave的使用

第六章 逻辑回归

这里主要讲的是单一的分类,即y=1 or y=0这两类。
而逻辑回归和线性回归的区别如下:
逻辑回归

然后规定一个边界来分类。
另外逻辑回归的cost function也不一样,如下图:
逻辑回归cost function

简化形式:
逻辑回归cost function2

而最后的偏导数形式也十分简洁:
逻辑回归偏导数

最后一节介绍了诸如Conjugate Gradient(共轭梯度)、BFGS、L-BFGS之类的方法。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值