NNDL作业二

 习题3-2

取平面f(x;\omega )=0中任意一点x_{0}做向量\underset{x_{0}x}{\rightarrow},其中点x到平面的距离为向量\underset{x_{0}x}{\rightarrow}在平面法向量\underset{n}{\rightarrow}上的投影,d=\left \| \underset{x_{0}x}{\rightarrow} \right \|\cdot \cos (\theta )\theta\underset{n}{\rightarrow}\underset{x_{0}x}{\rightarrow}的夹角(\leqslant 90^{o})

\begin{aligned} \cos (\theta) &=\frac{\left|\overrightarrow{x_{0} x} \cdot \omega\right|}{\left\|\overrightarrow{x_{0} x}\right\|\|\omega\|} \\ &=\frac{\left|\vec{x} \cdot \omega-\overrightarrow{x_{0}} \cdot \omega\right|}{\left\|\overrightarrow{x_{0} x}\right\|\|\omega \|} \\ &=\frac{\left|f(x ; \omega)-f\left(x_{0} ; \omega\right)\right|}{\left\|\overrightarrow{x_{0} x}\right\|\|\omega\|} \end{aligned}

因为x_{0}在平面f(x;\omega )内,所以有

\cos (\theta)=\frac{|f(x ; \omega)|}{\left\|\overline{x_{0} x}\right\|\|\omega\|}

带入d中得 

\boldsymbol{d}=\frac{|f(\boldsymbol{x} ; \boldsymbol{\omega})|}{\|\boldsymbol{\omega}\|}

习题3-5

       可以用,但不太适用。最小化平方损失函数本质上等同于在误差服从高斯分布的假设下的极大似然估计,然而大部分分类问题的误差并不服从高斯分布。而且在实际应用中,交叉嫡在和Softmax激活函数的配合下,能够使得损失值越大导数越大,损失值越小导数越小,这就能加快学习速率。

        然而若使用平方损失函数,则损失越大导数反而越小,学习速率很慢。在分类我们上我们往往只关注模型对数据的真实类别的预测概率而不关注对其他类别的预测概率。所以对分类问题来说,平方损失函数不太适用。

习题3-6

加上正则化后

R(w)=-\frac{1}{N} \sum_{n-1}^{N}\left(y_{n}\right)^{T} \log \hat{y}_{n}+\lambda w^{T} w

\frac{\partial R(w)}{\partial w}=-\frac{1}{N} \sum_{n=1}^{N}\left(y_{n}-\hat{y}_{n}\right) x_{n}+2 \lambda w

\omega的更新公式为

w=w+a \frac{1}{N} \sum_{n-1}^{N}\left(y_{n}-\hat{y}_{n}\right) x_{n}-2 \lambda w

在每次更新参数中都要减去2\lambda \omega,使得新的参数不会太大,也不会造成溢出的错误发生,抑制了过拟合的发生。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值