线性分类
回归问题与分类问题之间有所差别
- 回归问题:输出是连续值,如天气预报,股市价格等,使用线性回归;
- 分类问题:输出是离散值,如图像分类、语音识别等,使用softmax回归。
线性回归
当最终准确结果只取决于两个自变量的时候,设自变量分别为x1与x2,最终结果为 y,此时的推导关系可以线性的表示为:,其中w1与w2表示为不同自变量所代表的权重,而b代表偏置,均为标量。
模型是基于x1与x2所推导的y的表达式,机器学习术语⾥,该数据集被称为训练集。每一组具体的数据都是一个样本,x1与x2属于特征,而y属于标签,假设我们采集的样本数为n,线性回归模型的房屋价格预测表达式为:
损失函数也称为代价函数,用来衡量格预测值与真实值之间的误差。常常选择平方函数:
在模型训练中,我们希望找出⼀组模型参数来使训练样本平均损失最小:
当模型和损失函数形式较为简单时,上⾯的误差最小化问题的解可以直接⽤公式表达出来。这类解称为解析解。然而,⼤多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解称为数值解。在求数值解的优化算法中,小批量随机梯度下降在深度学习中被广泛使用。
模型预测是指模型训练完成后将模型参数在优化算法停⽌时的值分别记作,此时并不一定是最优解
,而是一个近似,对最优解的估计。得到线性回归模型后便可输入其他自变量估算任意目标值,也称为模型预测。神经网络图表示如下:
线性分类
不同于线性回归,线性分类器透过特征的线性组合来做出分类决定。也就是说,样本通过直线(或超平面)可分。二分类问题输出的可以是0或者1,也可以是0-1之间的数,代表属于某类的概率。此时需要用Sigmoid函数对值做一个变换。
softmax回归跟线性回归一样将输⼊特征与权重做线性叠加。与线性回归的⼀个主要不同在于,softmax回归的输出值个数等于标签⾥的类别数。也是⼀个单层神经⽹络,输出层也是一个全连接层。
softmax运算符可以直接将输出值变成值为正且和为1的概率分布:
多层感知机
进一步从单层神经网络延伸到多层神经网络。此处以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经⽹络的概念。
神经元模型的作用函数有如下几种,分别为非对称Sigmoid函数,对称Sigmoid函数,及对称跳跃函数,也称阈值逻辑单元,表达式分别如下:
感知机(Perceptron)是1957年,由Rosenblatt提出,是神经网络和支持向量机的基础。感知机用于解决线性分类问题。
假设分类直线方程为,任意一点
到直线的距离为:
高维情况分类为超平面,有
多层感知机的原理图如下: