Andrew Ng机器学习笔记1

姐姐也要学习机器学习啦,好多人都推荐了吴恩达的机器学习课程,所以我也打算试试看。

网址:http://open.163.com/special/opencourse/machinelearning.html

立一个flag~从今天开始,每天学习斯坦福大学的公开课<机器学习课程>by Andrew Ng,自己推导公式,并做总结。

希望大家跟我一起学习、讨论~

总结的太多我也会不想看,已经知道的知识也不想总结,那样以后复习的时候也不太想看。。。所以姐姐总结的标准就是:

1.能把一个深奥的理论讲的生动形象的

2.会把大部分人搞得晕头转向的公式推导

3.十分重要的/新颖的思想

那么,let's go!

第一天(为什么这么写的时候会不由自主的想要唱起来,第一天我存在……=。=)——机器学习的动机与运用

监督学习(supervised learning)给算法提供了一组标准答案,希望算法去学习标准输入和标准答案之间的联系,以尝试当我们给另一组输入时,算法可以提供我们更为标准的答案。回归问题与分类问题都属于监督学习。


无监督学习(unsupervised learning):给你一组数据,并不会告诉你哪些是标准答案,而是让你从这组数据中发现一些有趣的结构。

这里老师举了一个例子:输入一张图像,使用聚类算法对图像划分不同的区域(这一步用到的是无监督学习),再利用聚类算法得到的结果来还原场景的3D模型(要用到监督学习)(这是他学生的研究方向,目前已经实现,想想就好厉害,只需要一张图像就可以还原出三维场景)下面这张图就是对一个场景图像利用聚类算法得到的结果,可以看出场景被划分出了好多区域。

 

强化学习(Reinforcement learning):举的例子是一个使用强化学习算法的直升机控制器,每次直升机摔下来的时候,就告诉它:bad helicopter,每次直升机飞行正确的时候,就告诉它:good helicopter,渐渐地,它就学会如何控制自己来获取更多的good helicopter

强化学习的关键是找到一种方式来定义你想要的如何定义哪些行为是good helicopter,哪些是bad helicopter,之后就需要一个学习型算法,来获取更多的good helicopter,更少的bad helicopter。



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值