机器学习
采用自动化的算法,从大量数据中学习,解决特定问题的一般解决方案。
所谓的数据是为了解决特定问题采集或者生成的, 从这些数据可以找到对于新的数据的有效一般解决方案。
深度学习和机器学习一样,并不像人类大脑,也是趋向于解决特定的问题。
深度学习
深度学习是及机器学习的分支。
采用深层的神经网络来构建模型,利用前向、反向传播来训练模型。这样的算法被称为深度学习。
深度学习的起源与发展
1960s 感知器 (perceptron)感知器可以实现与或非的基础逻辑运算,但是后期人们又发现感知器不能实现异或。
为了解决这一问题:将多个感知器相连接,形成多层感知器的网络,这也是人工神经网络的雏形。但是多层感知器的训练又成了问题,原有感知器的方法并不适用于多层感知器,于是又提出了反向传播
1980s 反向传播 (Back Propagation) 在当时反向传播由于计算机的算力,硬件,数据都达不到要求,算法执行速度慢
2006 深度置信网络(Deep Belief Nets )是Hinton提出的,采用逐层的贪心算法,在一定程度解决了深度学习训练的问题
2010 使用GPU加速端到端的BP神经网络
数据、算法和计算能力促进了目前深度学习的发展
深度学习解决的问题
简单理解下结构数据和非结构数据
(1)结构化数据
结构化数据多用于机器学习中,结构化数据是符和属性-数值结构的数据且每个样本都具有相同的属性
面积(m2) | 卧室数量 | …… | 房价(万元/m2) |
---|---|---|---|
86 | 3 | …… | 5.1 |
74 | 1 | …… | 4.2 |
(2)非结构化数据
非结构化数据多用于深度学习,比如音频、图像、文本等。在机器学习的方法中不善于对非结构化的数据来提取特征
非结构化数据不是像结构化数据符合属性-数值结构的性质。但是非结构化数据仍存在特征,只不过需要发掘和整理。(没错,这个结构化数据没有非结构化数据含蓄)
比如说一张美女的图片,大大的眼睛,鹅蛋脸,高挺的鼻梁,白皙的皮肤。这样人类可以通过常识来对图片的特征进行整理和提取,但是对于数据本身来说,这些特征是隐藏在大量数据之间的,不是像结构化数据的特征以一种计算机能够理解的方式存在。
深度学习对非结构化数据的自动特征提取
对于计算机视觉的领域,在深度学习之前,计算机是采用我们设计的精妙的算子来提取特征的,比如SIFT(查找图像角点的信息)、HoG(主要应用于人脸的检测)
相较于传统的模式识别,对于深度学习来说是自动提取特征的。深度学习就是学习大量的数等方法,自动学习据,通过网络架构、反向传播等方法自动学习提取特征,但是就是提取出的特征我们可能并不知道是什么,管他呢,计算机认识就好。
深度学习研究的细分领域