笔记 加州理工学院公开课:机器学习与数据挖掘 一

这是一篇关于加州理工学院机器学习入门公开课的笔记,讲解了学习问题的概念,包括监督学习、无监督学习和强化学习的分类,并介绍了学习的可行性,特别是Hoeffding不等式在证明学习概念理论基础中的应用,探讨了频率如何在大量样本中近似概率。
摘要由CSDN通过智能技术生成

对目前在看的一个公开课做一下笔记 第一课的连接在这里:http://open.163.com/movie/2012/2/3/C/M8FH262HJ_M8FTVDQ3C.html

这门课是caltech的机器学习的入门课程 就相当于科普性质的 主要想巩固一下以前学的知识 尽量解释概念 少贴公式

本门课的讲师是Yaser Abu-Mostafa教授 caltech的大牛 能可贵的是他跟产业界有很多联系 所以这门课讲到很多实践的东西


第一课是 学习问题

这一课的主要内容是介绍什么是学习 首先是三个前提:1 数据中有固定的模式存在 即有一定规律的 2 这个模式不能用数学公式精确的描述 要是能描述就不用学习了 3 有数据 其实这里的学习概念跟我们生活中的学习是不一样的 这里的学习并不具有智能的含义 只是说从数据中寻找不能用数学公式精确描述的规律 它有很多限制 而我们生活中的学习则高级得多的多

还有就是学习的分类 按照他的说法 分为1 监督学习 2 无监督学习 3 强化学习 前两者自不用说 其中一个例子比较好 就是把无监督学习类比于人类在没有资料的情况下学习一种语言 而强化学习跟前两者的不同就是它的反馈不是绝对的 而是一个评分 比如看电影的评分 

另外 最后的Q&A环节 一个亚裔口音的男生转述了很多问题 虽然很多问题看似比较简单 比如数据怎么来的 但是教授仍然很耐心的回答 据我猜测这可能是一个本科生的课程 所以caltech的氛围真的是很不一样


第二课是 学习的可行性

这节课讨论的是能否学习 也就是所谓学习概念的理论基础 我一开始还以为是拿着数据讨论是不是可以学习 线性还是非线性之类的 但是教授确实从纯数学的角度讨论了一般意义上为什么可以从数据中学习到一个合理的hypothesis 简单讲就是为什么频率

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值