上一篇:外行人都能看懂的及其学习原理—逻辑回归
神经网络概述
前面说到感知器(或者逻辑回归分类器)是神经网络的一个神经元。神经网络是由多个神经元组成的网状结构,如下图所示,标准的神经网络由输入层x,输出层y和多个隐藏层h堆叠而成,隐藏单元hi(c),c表示层数,i表示层内的神经元序号。
深度学习是指通过样本训练来构造层数比较深(多)的神经网络。神经网络实际是用网络来逼近输入与输出之间的关系函数y=f(x),使神经网络的输出可以无限接近于函数的输出,神经网络几乎可以拟合任何函数。神经网络的不同结构表示该函数的不同结构,是根据输入输出之间的大致含义人为构造的,权重值wij是通过样本训练得到的。
深度学习目前比较多的应用是视觉识别系统。跟传统的支持向量机、贝叶斯等机器学习比,深度学习的核心是特征学习,旨在通过分层网络获取分层次的特征信息(即上一层的输出是下一层需要输入的特征向量),从而解决以往需要人工设计特征的重要难题。
比如在图像识别的处理方法上。
² 神经网络之前的做法是:通过人工设计操作将输入的数据转化成一种紧凑抽象的表征,同时还要根据当前任务的需要手动设计一些变量。通过这种转化,将输入数据表征成一种更容易分离或识别的形式,有利于后续的识别分类。转化后的数据作为分类器(比如支持向量机)训练的输入信号。人为提取的特征数值质量影响分类表现。
² 多层神经网络不仅能够训练目标分类器,还能从输入数据中直接学习所需要的数据变换操作,即上述需要人为设计的表征,可通过网络自动学习提取表征(特征)。