对目前在看的一个公开课做一下笔记 第一课的连接在这里:http://open.163.com/movie/2012/2/3/C/M8FH262HJ_M8FTVDQ3C.html
这门课是caltech的机器学习的入门课程 就相当于科普性质的 主要想巩固一下以前学的知识 尽量解释概念 少贴公式
本门课的讲师是Yaser Abu-Mostafa教授 caltech的大牛 能可贵的是他跟产业界有很多联系 所以这门课讲到很多实践的东西
第一课是 学习问题
这一课的主要内容是介绍什么是学习 首先是三个前提:1 数据中有固定的模式存在 即有一定规律的 2 这个模式不能用数学公式精确的描述 要是能描述就不用学习了 3 有数据 其实这里的学习概念跟我们生活中的学习是不一样的 这里的学习并不具有智能的含义 只是说从数据中寻找不能用数学公式精确描述的规律 它有很多限制 而我们生活中的学习则高级得多的多
还有就是学习的分类 按照他的说法 分为1 监督学习 2 无监督学习 3 强化学习 前两者自不用说 其中一个例子比较好 就是把无监督学习类比于人类在没有资料的情况下学习一种语言 而强化学习跟前两者的不同就是它的反馈不是绝对的 而是一个评分 比如看电影的评分
另外 最后的Q&A环节 一个亚裔口音的男生转述了很多问题 虽然很多问题看似比较简单 比如数据怎么来的 但是教授仍然很耐心的回答 据我猜测这可能是一个本科生的课程 所以caltech的氛围真的是很不一样
第二课是 学习的可行性
这节课讨论的是能否学习 也就是所谓学习概念的理论基础 我一开始还以为是拿着数据讨论是不是可以学习 线性还是非线性之类的 但是教授确实从纯数学的角度讨论了一般意义上为什么可以从数据中学习到一个合理的hypothesis 简单讲就是为什么频率