直入主题,作为Machine Learning课的复习笔记,这一系列的博客会从头写起。
Week1 总共分为三个部分。Introduction部分大概扯扯0,吸引大家来学习高大上的机器学习。
如下图所见,Andrew给出机器学习的应用实例:
- 搜索引擎的网页排序。
- Facebook的照片检测。
- 垃圾邮件的识别。
同时,他还展示了自己的得意作品-自动驾驶空中杀手小小直升机,从视频中看到这种乱飞的神秘物体真是醉了~IT人士对直升机驾驶有偏爱果然是确确实实。
机器学习是从AI研究中产生的,而Andrew的梦想是实现人工智能。这一点很有意思,AI开始的研究集中于逻辑方面,尤为著名的图灵实验就是AI人士的playground,后来具Peter Norvig说,研究人工智能的智能们醒悟过来,发现使用统计学方法,利用数学模型处理往往能达到更好的效果;像飞机的发明一样,当人类停止极力模仿鸟才有了莱特兄弟的灰机出现,非让电脑跟人说话来检测人工智能也许不是电脑的菜,毕竟这货跟人不一样,极少犯错。那么,闲话说到这里,继续复习课程。
从更广的范围来说,手写识别、自然语言处理和机器视觉都是ML的研究范围(其实。。。谁先做出来能用的东西,这个领域就划入了该学科的研究范围)。
亚马逊和Netflix的推荐系统也有赖于ML方法(纸牌屋就是这样挖出来的~)。
下一节视频中,Andrew老师开始划分概念以及讲解机器学习的定义~(定义这玩意。。就是为了告诉爸妈我们是干什么的,不过好像还是说不清楚~~~费曼曾经说过,如果人类智慧成果全消失了,只留一句话给后代,那句话就是“世界是由原子组成的,原子间有空隙并不断地作不规律运动”==就是说,给后代熊孩子们留个定义吧)
这节里面,Andrew实际上讲了个冷笑话,他说Samuel写了个checker's game(Sedgewick和Kevin的Algorithm里面有讲)的AI然后把自己打败了,体现了AI的伟大,然后淡淡的说了一句~其实Samuel本人这个游戏玩得就很菜。
总体来讲,目前对ML的解释是对使用硬编码方式不适宜的问题,通过让机器自己学习,喂给数据,使其自动完成一些工作~官方一点说,是给出经验E和表现度量参数P,使得机器完成一个任务T,并且在E的帮助下机器完成T的P参数得到提升。我这种战五渣的理解就是~~给程序一堆参数,给出数据让它自己去调参数,调好程序运行比较正常就能用了。
下一节讲的是有监督的学习,老师举了个奥克兰的房子的例子,给出一组数据(面积和房价),使用一种方法给出一个750平方英尺的房子。用中学学的线性回归可以完成(其实线性回归至今不是很明白,照猫画虎)一种预测(Andrew的线性回归从来都是硬调参数值调出来的,完全不算啊啊啊。。。),同时用二次函数拟合效果会更好~
在天朝,面积不是重点,重点是学区。。。
再来是无监督的学习,给一堆数值,需要给它们分个组,在肿瘤检测等方面都会有应用。此处,作为大神,老师展示了一种高端的处理:
现场有两个声源,取两个麦克风放到不同的位置作为输入,利用一种算法就能将两个声源声音分离出来~这几个小喇叭各自播放的哪个阶段的信号至今没弄懂。。。回头再细抠一会
最后,大神就要安利Octave了(竟然知道我米有钱买Matlab。。。),不要9999行代码,也不要999行代码,更不要99行代码,只要一行代码,是的,你没有听错,只要一行代码,不需要类库,不需要外挂~只要一行代码就能实现上图的高端效果!!!
(两个麦克搞不到,这个实验还没做嘞,另外,svd是什么。。。滚去学堂在线学线代去了)