神经网络与深度学习-作业2

习题3-2:在线性空间中,证明一个点x到平面f(x;w) = w^{T}x + b = 0的距离为\frac{|f(x;w)|}{||w||}.证明:设平面内有一点 x^{'},使得 x-x^{'}垂直于此平面

又因为 w 垂直于此平面,所以有 x-x^{'} 平行于 w。即: x-x^{'} = kw( k为常数)因此点 x 到平面距离为 |k|‖w‖, 又w^{T}x + b = f(x;w),所以f(x;w) = w^{T}(x-x^{'}),带入kw,有f(x;w) = w^{T}kw

两边同时取模: |f(x;w)| = ||w||*|b|*||w||,  |b|*||w|| = f(x;w)||w||

证毕

[习题3-5] 在Logistic回归中,是否可以用\hat{y} = \sigma (w^{T}x)去逼近正确的标签 y,并用平方损失(y-\hat{y})^{2}最小化来优化参数 w ?

第一种情况,当以平方损失为loss function时:

L = \frac{1}{2}(\hat{y} - y)^{2}

\frac{\partial L}{\partial w} = (\hat{y} - y)\sigma ^{'}x

w = w - \eta \frac{\partial L}{\partial w} = w - \eta (\hat{y} - y)\sigma ^{'}x

由于Sigmoid函数的横纵坐标趋于较大或较小时,函数值趋于平缓,因此大多数情况下几乎为0,w很难去优化。

第二种情况,当以交叉熵损失作为loss function时:

\sigma ^{'} = \sigma (1-\sigma )y = \sigma (w^{T}x)

L = -yln\hat{y} - (1-y)ln(1-\hat{y})

\frac{\partial L}{\partial w} = -y\frac{1}{\hat{y}}\sigma ^{'}x - (1-y)\frac{1}{1-\hat{y}}(-1)\sigma 'x = -\frac{y\sigma (1-\sigma )x(1-\hat{y})}{\hat{y}(1-\hat{y})} + \frac{(1-y)\hat{y}\sigma (1-\sigma )x}{\hat{y}(1-\hat{y})}

=\frac{\hat{y}\sigma (1-\sigma )x - y\sigma (1-\sigma )x}{\hat{y}(1-\hat{y})}=\frac{ (\hat{y}-y)\sigma (1-\sigma )x}{\hat{y}(1-\hat{y})}=\frac{(\hat{y}-y)\hat{y}(1-\hat{y})x}{\hat{y}(1-\hat{y})}=(\hat{y}-y)x

当误差大的时候,权重更新快;当误差小的时候,权重更新慢。

[习题3-6] 在Softmax回归的风险函数(公式(3.39))中,如果加上正则化项会有什么影响?

R(w) = -\frac{1}{N}\sum_{n=1}^{N}(y^{(n)})^{T}log\hat{y}^{(n)}

当我们加入正则化后:R(w) = -\frac{1}{N}\sum_{n=1}^{N}(y^{(n)})^{T}log\hat{y}^{(n)}+\lambda W^{T}W

\frac{\partial R(W)}{\partial W} = -\frac{1}{N}\sum_{n=1}^{N}(\hat{y}^{(n)} - y^{(n)})x^{(n)} + 2\lambda W

更新参数时:W = W + \alpha \frac{1}{N}\sum_{n=1}^{N}(\hat{y}^{(n)} - y^{(n)})x^{(n)} - 2\lambda W

加入正则化后,在更新参数时每次需要减去2\lambda W,使得参数不会太大,便不会造成溢出之类的错误发生,同时也会抑制过拟合。

 参考博客:《神经网络与深度学习-邱锡鹏》习题解答-第3章 线性模型 - 知乎

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小鬼缠身、

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值