(一)线性回归

1、单层神经网络

经典的浅层模型,例如线性回归Softmax回归。前者适用于回归问题:模型最终输出是一个连续值,例如房价;后者适用于分类问题:模型最终输出是一个离散值,例如图片的类别。这两种浅层模型本质上都是单层神经网络。

2、模型

设数据样本数为n,特征数为d。给定批量数据样本的特征和标签 XRn×d X ∈ R n × d ,线性回归的批量输出 yRn×1 y ∈ R n × 1 的计算表达式为

y^=Xw+b, y ^ = X w + b ,

其中 wRd×1 w ∈ R d × 1 bR b ∈ R 分别为线性回归的模型参数:权重和偏差。用预测值 y^ y ^ 和真实值 y y 之间的平方损失作为模型的损失函数。

3、损失函数

希望模型的估计值和真实值在训练数据集上尽可能接近。用平方损失(square loss)来定义数据样本i上的损失(loss)为

(i)(w1,w2,b)=(y^(i)y(i))22,

当该损失越小时,模型在数据样本i上的估计值和真实值越接近。已知训练数据集样本数为n。线性回归的目标是找到一组模型参数 w1,w2,b w 1 , w 2 , b 来最小化损失函数
(w1,w2,b)=1ni=1n(i)(w1,w2,b)=1ni=1n(x(i)1w1+x(i)2w2+by(i))22 ℓ ( w 1 , w 2 , b ) = 1 n ∑ i = 1 n ℓ ( i ) ( w 1 , w 2 , b ) = 1 n ∑ i = 1 n ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b − y ( i ) ) 2 2

损失函数 (w1,w2,b) ℓ ( w 1 , w 2 , b ) 可看作是训练数据集中各个样本上损失的平均

4、优化算法

一种常用的优化算法叫做小批量随机梯度下降(mini-batch stochastic gradient descent)(把数据打乱,依次不放回地批量取)。每一次迭代前,我们可以随机均匀采样一个由训练数据样本索引所组成的小批量(mini-batch) B B ;然后求小批量中数据样本平均损失有关模型参数的导数(梯度);用此结果与人为设定的正数的乘积作为模型参数在本次迭代的减小量。

w1w1η|B|iB(i)(w1,w2,b)w1=w1η|B|iBx(i)1(x(i)1w1+x(i)2w2+by(i)), w 1 ← w 1 − η | B | ∑ i ∈ B ∂ ℓ ( i ) ( w 1 , w 2 , b ) ∂ w 1 = w 1 − η | B | ∑ i ∈ B x 1 ( i ) ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b − y ( i ) ) ,

w2w2η|B|iB(i)(w1,w2,b)w2=w2η|B|iBx(i)2(x(i)1w1+x(i)2w2+by(i)), w 2 ← w 2 − η | B | ∑ i ∈ B ∂ ℓ ( i ) ( w 1 , w 2 , b ) ∂ w 2 = w 2 − η | B | ∑ i ∈ B x 2 ( i ) ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b − y ( i ) ) ,

bbη|B|iB(i)(w1,w2,b)b=bη|B|iB(x(i)1w1+x(i)2w2+by(i)). b ← b − η | B | ∑ i ∈ B ∂ ℓ ( i ) ( w 1 , w 2 , b ) ∂ b = b − η | B | ∑ i ∈ B ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b − y ( i ) ) .

|B| | B | 代表每个小批量中的样本个数(批量大小,batch size),η称作学习率(learning rate)并取正数。需要强调的是,这里的批量大小和学习率的值是人为设定的,并不需要通过模型训练学出,也叫做超参数(hyperparameter)。我们通常所说的“调参”指的正是调节超参数。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值