深度学习:作业二

[习题3-2] 在线性空间中,证明一个点 x 到平面 f(x;w) = w^Tx + b = 0 的距离为 |f(x;w)|/||w||.

  

证明:

设平面内有一点 x′ ,使得 x−x′ 垂直于此平面

又因为 w 垂直于此平面,所以有 x−x′ 平行于 w

即: x−x′=kw ( k 为常数)

因此点 x 到平面距离为 |k|‖w‖

又 w^Tx+b=f(x;w)

w^Tx' + b = 0

所以 f(x;w) = w^T(x-x')

带入 kw

f(x;w) = w^Tkx

两边同时取模:

|f(x;w)|=‖w‖|k|‖w‖

|k| ||w|| = \frac{f(x;w)}{||w||}

[习题3-5] 在Logistic回归中,是否可以用 \hat{y} = \sigma (w^Tx) 去逼近正确的标签 y,并用平方损失 (y-\hat{y})^2 最小化来优化参数 w ?

不能

L = \frac{1}{2}(\hat{y}-y)^2

\frac{ \varphi L}{ \varphi w} = (\hat{y}-y)^2\sigma 'x

w = w - \eta\frac{ \varphi L}{ \varphi w} = w - \eta (\hat{y}-y)\sigma 'x

可以看到梯度公式中没有 σ′ 这一项,权重受到误差 (y^−y) 的影响,所以当误差大的时候,权重更新快;当误差小的时候,权重更新慢。这是一个很好的性质。

[习题3-6] 在Softmax回归的风险函数(公式(3.39))中,如果加上正则化项会有什么影响? 

公式3.39: R(w)=-\frac{1}{N}\sum_{n=1}^{N}(y^{(n)})^{T}log\hat{y}^{(n)}

加入正则化后:

 R(w)=-\frac{1}{N}\sum_{n=1}^{N}(y^{(n)})^{T}log\hat{y}^{(n)}+\lambda W^{T}W

则 R(w)=-\frac{1}{N}\sum_{n=1}^{N}(\hat{y}^{(n)}-y^{(n)})^{T}log\hat{y}^{(n)}+2\lambda W

更新参数时:W=W+\alpha \frac{1}{N}\sum_{n=1}^{N}(\hat{y}^{(n)}-y^{(n)})^{T}log\hat{y}^{(n)}-2\lambda W

加入正则化后,在更新参数时每次需要减去 2λW ,使得参数不会太大,便不会造成溢出之类的错误发生,同时也会抑制过拟合。

加入正则化后:

R(W)=−1N∑n=1N(y(n))Tlog⁡y^(n)+λWTW

则 ∂R(W)∂W=−1N∑n=1N(y^(n)−y(n))x(n)+2λW

更新参数时:W=W+α1N∑n=1N(y^(n)−y(n))x(n)−2λW

加入正则化后,在更新参数时每次需要减去 2λW ,使得参数不会太大,便不会造成溢出之类的错误发生,同时也会抑制过拟合。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值