一、深度学习的发展及其应用
1.1 深度学习的发展历程
1956年,John McCarthy(约翰·麦卡锡)等人在美国达特茅斯学院(Dartmounth College)开会探讨如何使用机器模拟人的智能时,提出了“人工智能”这一概念。
这标志着人工智能学科的诞生,这一年也称为人工智能元年。
作为人工智能最重要的一个分支,深度学习近年来发展迅速,在国内外都引起了广泛的关注。
1.2 深度学习的起源阶段
1943年,心理学家Warren Mcculloch和数理逻辑学家Walter Pitts在合作的论文中提出并给出了人工神经网络的概念及人工神神经元的数学模型,从而开创了人类神经网络研究的时代。
1956年,心理学家Frank Rosenblatt受到这种思想的启发,认为这个简单想法足以创造一个可以学习识别物体的机器,并设计了算法和硬件。直到1957年,Frank Rosenblatt在《New York Times》上发表文章《Electronic ‘Brain’ Teaches Itself》,首次提出了可以模型人类感知能力的机器,并称之为感知机(Perceptron)
感知机是有单层计算单元的神经网络,由线性元件及阈值元件组成。感知机的逻辑图如图
1969年,美国数学家及人工智能先驱Marvin Minsky(马文·明斯基)在其著作中证明感知器本质上是一种线性模型,只能处理线性分类的问题,这使得神经网络的研究陷入近20年的停滞。
1.3 深度学习的发展阶段
沉寂了多年后,关于神经网络的研究开始慢慢复苏。
1986年,Geoffrey Hinton(杰弗里·辛顿)提出一种适用于多层感知器的反向传播算法———BP算法。
BP算法全称叫作误差反向传播(error Back Propagation,或者也叫作误差逆传播)算法。
其算法基本思想为:在前馈网络中,输入信号经输入层输入,通过隐层计算由输出层输出,输出值与标记值比较,若有误差,将误差反向由输出层向输入层传播,在这个过程中,利用梯度下降算法对神经元权值