搞了这么久人工智能,写个阶段性总结吧。不过过几年肯定会有更精彩的结果出来。到时候就再处理这篇文章吧。
不知道大家有没有看过Ray Kurzweil的《奇点临近》。反正我看过之后,做了一个决定:我这辈子算是要献给这个方向了。
说人工智能这个方向,可以分很细,但各种分法最后用到的东西基本都一样。我篇文章要提出几个问题,然后回答他们。
- 人工智能方向的原因
- 人工智能的总体介绍
- 人工智能核心技术
- 人工智能方向的原因:
- 人工智能的总体介绍
- 输入和特征提取(五感,例如眼一看到东西,就会在视网膜自动将图像各种特性提取出来,不同的特性送到大脑的不同区域。例如颜色、轮廓、亮度)
- 分类(一个东西,只要形状变得不夸张,我们都认识,这就是分类的功能,当然,在人工智能里叫classify和clustering)
- 输出(就是个控制系统,给它发什么信号,他做什么事情。当然,这个事情可能会涉及到比较多的部件,会很复杂,但归结起来,就是件事情)
- 记忆(这个是系统最难攻克的地方,我们现在能做的所有文明的事情都是基于记忆的(你刚出来的时候只会找妈妈的奶喝)),而记忆记啥呢?模式。
- 模式:一个鼠标,怎么变我们也认识,这是物体的模式。一个人的声音,我们也听出来,这是声音的模式。所以,模式=分类结果
- 人工智能核心技术
- 输入和特征提取:特征(属性)选择
- 分类
- 记忆
- Byaes:贝叶斯(这个是第一名,没异议吧?效果很好(大部分情况),算法简单,要介绍整个算法体系的话估计谁都第一个把它提出来)
- 线性分类器:简单的说,你把所有输入(有属性)都用数字表示,然后以属性为坐标轴想象一个多维空间。每个数据条目都是多维空间的一个点,在这个空间里,你能在空间上把不同类的点分开,你就赢了。这就是线性分类了。(感知器算法(过时),最小二乘法,均方估计,逻辑识别还有大头的支持向量机,这里支持向量机svm是最出名的,我也天天用这个,这还得归功于台湾一位教授的libsvm库啊)
- 非线性分类器:就是线性分类器解决不了的情况。知名的算法有:ANN(人工神经网络,更确切的说是BP(反向传播)),svm(这么知名的算法,如果有线性解决不了的情况,自然会有人把它拓展到非线性情况)
《人工智能复杂问题求解的结构和策略》Luger;
《人工智能:一种现代的方法》拉塞尔;
《灵魂机器的时代:当计算机超过人类智能》Kurzwell
人工神经发展简史(转)
1.启蒙时期
1890年,WilliamJames发表了《心理学原理》。
1943年,生理学家W.S.McCuloch和数学家W.A.PiHs提出M-P模型。
1949年,心理学家Hebb出版《行为构成》,建立了Hebb算法(连接权训练算法)主要有四点贡献:①信息存储在连接权中;②
1958年,计算机科学家FrankRosenblatt提出了具有3层网络特性的神经结构网络。
1960年,电机工程师BernardWidrow和Mareian Hoff提出”Adaline”模型,实现了人工神经硬件。Widrow-Hoff算法也称为δ算法,最小均方(LMS)算法,梯度下降法。
2.低潮时期
1969年,人工智能创始人M.Minsky和S.Papert发表《感知器》,给人工智能泼了一盆冷水。
1969年,S.Grossberg教授和她的夫人G.A.Carpenter提出来著名的自适应共振理论(Adaptive ResonanceTheory)模型,其中的基本观点是:若在全部神经节点中有一个神经节点特别兴奋,其周围的所有节点将受到抑制。Grossberg还提出短期记忆和长期记忆的机理,节点的激活值和连接权都会随时间,前者代表短期记忆,衰减得快,后者代表长期记忆,衰减得慢。其后他们发表了ART1,ART2,ART3三个版本,ART1网络只能处理二值的输入,ART2能处理模拟量输入。
1972年,芬兰的T.Kohonen教授提出了自组织映射(SOM)理论,以及联想存储器(Associated Memory)。美国的神经生理学家和心理学家J.Anderson提出了交互存储器(Interactive Memory)。
1980,日本东京的福岛邦彦发表了“新认知机”(Neocognitron)。
3.复兴时期
1982年,美国加州理工学院的优秀物理学家John.J.Hopfield总结和吸纳了前人的经验,塑造出一种新颖的强有力的模型,成为Hopfield网络,此网络有个优点,与电子电路有明显的对应关系,易于用集成电路实现。
G.E.Hinton和T.J.Sejnowski借助统计物理学的概念和方法提出了一种随机神经网络模型—玻尔兹曼(Blotzmann)机。
1986年,贝尔实验室宣布制成神经网络芯片不久,美国的David.E.Rnmelhart和James L.McCelland及其领导的研究小组发表了《并行分布式处理》(ParallelDistributed Processing)一书的前两卷,接着1988年发表带有软件的第三卷,书中涉及到了三个主要特征:结构、神经元的传递函数(也称传输函数、转移函数、激励函数)和它的学习训练方法。这部书发展了多层感知器的反向传播训练算法,把学习的结果反馈到中间层次的隐节点,改变其权值,以达到预期的学习目的。
4.新时期
1987年6月,首届国际神经网络学术会议在加州圣地亚哥召开,成立了国际神经网络学会(International Neural Network Sociaty,INNS)。
不久,美国波士顿大学的Stephen Grossberg教授,芬兰赫尔辛基技术大学的Gteuvo Kohonen教授和日本东京大学的甘利俊一(Shunichi Amuri)教授—主持创办了世界第一份神经网络杂志《Neural Network》。