1.机器学习历史
接触可挺久的机器学习了,这次有机会重头开始学习机器学习,感觉机器学习的发展史需要再梳理一下了
机器学习阶段 | 年份 | 主要成果 | 代表人物 |
---|---|---|---|
人工智能起源 | 1936 | 自动机模型理论 | 阿兰•图灵(Alan Turing) |
1943 | MP模型 | 沃伦•麦卡洛克(Warren McCulloch)、沃特•皮茨(Walter Pitts) | |
1951 | 符号演算 | 冯• 诺依曼(John von Neumann) | |
1950 | 逻辑主义 | 克劳德•香农(Claude Shannon) | |
1956 | 人工智能 | 约翰•麦卡锡(John McCarthy)、马文•明斯基(Marvin Minsky )、 克劳德•香农(Claude Shannon) | |
人工智能初期 | 1958 | LISP | 约翰•麦卡锡(John McCarthy) |
1962 | 感知器收敛理论 | 弗兰克•罗森布拉特(Frank Rosenblatt) | |
1972 | 通用问题求解(GPS) | 艾伦•纽厄尔(Allen Newell)、赫伯特•西蒙(Herbert Simon) | |
1975 | 框架知识表示 | 马文•明斯基(Marvin Minsky) | |
进化计算 | 1965 | 进化策略 | 英格•雷森博格(Ingo Rechenberg ) |
1975 | 遗传算法 | 约翰•亨利•霍兰德(John Henry Holland) | |
1992 | 基因计算 | 约翰•柯扎(John Koza) | |
专家系统和知识工程 | 1965 | 模糊逻辑、模糊集 | 拉特飞•扎德(Lotfi Zadeh) |
1969 | DENDRA、MYCIN | 费根鲍姆(Feigenbaum )、布坎南(Buchanan )、莱德伯格(Lederberg) | |
1979 | ROSPECTOR | 杜达(Duda) | |
神经网络 | 1982 | Hopfield 网络 | 霍普菲尔德(Hopfield) |
1982 | 自组织网络 | 图沃•科霍宁(Teuvo Kohonen) | |
1986 | BP算法 | 鲁姆哈特(Rumelhart)、麦克利兰(McClelland) | |
1989 | 卷积神经网络 | 乐康(LeCun) | |
1998 | LeNet | 乐康(LeCun) | |
1997 | 循环神经网络RNN | 塞普•霍普里特(Sepp Hochreiter)、尤尔根•施密德胡伯(Jurgen Schmidhuber) | |
分类算法 | 1986 | 决策树ID3算法 | 罗斯•昆兰(Ross Quinlan) |
1988 | Boosting 算法 | 弗罗因德(Freund)、米迦勒•卡恩斯(Michael Kearns) | |
1993 | C4.5算法 | 罗斯•昆兰(Ross Quinlan) | |
1995 | AdaBoost 算法 | 弗罗因德(Freund)、罗伯特•夏普(Robert Schapire) | |
1995 | 支持向量机 | 科林纳•科尔特斯(Corinna Cortes)、万普尼克(Vapnik) | |
2001 | 随机森林 | 里奥•布雷曼(Leo Breiman)、阿黛勒• 卡特勒(Adele Cutler ) | |
深度学习 | 2006 | 深度信念网络 | 杰弗里•希尔顿(Geoffrey Hinton) |
2012 | 谷歌大脑 | 吴恩达(Andrew Ng) | |
2014 | 生成对抗网络GAN | 伊恩•古德费洛(Ian Goodfellow) |
2.机器学习的分类
机器学习根据所处理数据种类的不同,可以分为有监督学习,无监督学习,半监督学习和强化学习等几种类型。
监督学习,就是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。在人对事物的认识中,我们从孩子开始就被大人们教授这是鸟啊、那是猪啊、那是房子啊,等等。我们所见到的景物就是输入数据,而大人们对这些景物的判断结果(是房子还是鸟啊)就是相应的输出。当我们见识多了以后,脑子里就慢慢地得到了一些泛化的模型,这就是训练得到的那个(或者那些)函数,从而不需要大人在旁边指点的时候,我们也能分辨的出来哪些是房子,哪些是鸟。监督学习里典型的例子就是KNN、SVM。
无监督学习(也有人叫非监督学习,反正都差不多)则是另一种研究的比较多的学习方法,它与监督学习的不同之处,在于我们事先没有任何训练样本,而需要直接对数据进行建模。这听起来似乎有点不可思议,但是在我们自身认识世界的过程中很多处都用到了无监督学习。比如我们去参观一个画展,我们完全对艺术一无所知,但是欣赏完多幅作品之后,我们也能把它们分成不同的派别(比如哪些更朦胧一点,哪些更写实一些,即使我们不知道什么叫做朦胧派,什么叫做写实派,但是至少我们能把他们分为两个类)。无监督学习里典型的例子就是聚类了。聚类的目的在于把相似的东西聚在一起,而我们并不关心这一类是什么。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了。
参考链接: