1.利用深度人工神经网络进行自动分类、预测和学习的技术被称作是深度学习。
普遍的观点是,只要超过三层以上的神经网络都可以叫做深度神经网络。(所以深度学习的本质还是利用神经网络去完成自己的目的,而神经网络的核心算法是反向传播,想在深度学习领域有自己的创新:组合创新、算法创新或者应用场景创新,都需要对反向传播的思想和伪代码有认真了解。)
在这里解释一下:为什么通俗约定是三层以上。因为在一个完整的神经网络架构里面:最少要有输入层、隐含层、输出层。而输入层不被认为是一个层数,当隐含层个数等于2时,便能够模拟出各种复杂的平面函数,大于2的时候,复杂的空间映射关系也能模拟出来,所以深度神经网络通常也被用来处理多特征数据。
2.影响深度学习的三个因素
大数据、深度网络架构、 GPU
数据是深度学习的“粮食” ,数据量越大,在相同的网络架构下,深度学习表现能力越好。但是大量带标签的有效数据的获取是很困难的,支持向量机之前的火热,就是因为它在小样本分类领域,具有很强的能力。
深度网络架构决定了一个网络本质的性能好坏。根据整个网络的构建方式和拓扑连接结构,主要分为2类:前馈神经网络、循环神经网络。(有的人会特意把卷积神经网络也归为一类,但是卷积网络说到底还是前馈神经网络,所以我没有单独列出来。)
影响深度网络架构的主要因素:1.网络的拓扑连接方式;2.超参数的选择。
普通的前馈神经网络:也叫全连接网络,所有的节点都可以分为一层一层,每个节点只跟它的相邻层节点而且是全部节点相连。
卷积神经网络:卷积神经网络主要构成:输入层,隐含层(卷积层,池化层),输出层。
它独特之处就是卷积层,卷积层利用卷积核去学习特征表示,而且每层卷积核是参数共享,这相对于全连接网络,大大减少了权重参数量。卷积网络可以自动提炼数字图像的低尺度和高尺度特征,低层神经元可以提取图像边缘、棱角等小尺度信息。中间层单元可以提取数据中更高的尺度信息,到了更高层,能提取到整张脸的特征。
循环神经网络:常用于处理时间序列信号,主要是它的网络设计,考虑到了同层内的神经元之间的联系。
GPU:大大加快训练速度,实现深度学习在工业领域落地的关键部件。