nndl-复旦-神经网络与深度学习笔记第三章习题

第三章习题

参考资料:

  1. https://blog.csdn.net/qq_38252142/article/details/109007372
  2. https://github.com/nndl/solutions/issues
    在这里插入图片描述
    答:决策平面为 w T x + b = 0 w^Tx+b=0 wTx+b=0,任意选择决策平面上两点: x 1 、 x 2 x_1、x_2 x1x2,满足:
    w T x 1 + b = 0 w^Tx_1+b=0 wTx1+b=0
    w T x 2 + b = 0 w^Tx_2+b=0 wTx2+b=0
    则两式相减得: w T ( x 1 − x 2 ) = 0 w^T(x_1-x_2)=0 wT(x1x2)=0其中, x 1 − x 2 x_1-x_2 x1x2即为决策平面上任意的向量,即 权重向量 w w w 与决策平面正交。
    在这里插入图片描述
    答:假设点x在平面 f ( x ; w ) f(x;w) f(x;w)的投影点为 x 1 x_1 x1,则点x到平面上的距离可以表示为:
    d i s t a n c e = ∣ ∣ x − x 1 ∣ ∣ distance=||x-x_1|| distance=xx1
    因为 x 1 x_1 x1为平面上的点,所以满足平面方程,即: w T x 1 + b = 0 w^Tx_1+b=0 wTx1+b=0,解得 x 1 x_1 x1为:
    x 1 = − w − T b x_1=-w^{-T}b x1=wTb,代入距离公式:
    d i s t a n c e = ∣ ∣ x + w − T b ∣ ∣ = ∣ ∣ w ∣ ∣ ∗ ∣ ∣ x + w − T b ∣ ∣ ∣ ∣ w ∣ ∣ = ∣ ∣ w x + b ∣ ∣ ∣ ∣ w ∣ ∣ = ∣ f ( x ; w ) ∣ ∣ ∣ w ∣ ∣ distance=||x+w^{-T}b||=\frac{||w||*||x+w^{-T}b||}{||w||}=\frac{||wx+b||}{||w||}=\frac{|f(x;w)|}{||w||} distance=x+wTb=wwx+wTb=wwx+b=wf(x;w)
    在这里插入图片描述
    答:由凸函数的性质: f ( ρ x 1 + ( 1 − ρ ) x 2 ) ≤ ρ x 1 + ( 1 − ρ ) x 2 f(\rho x_1+(1-\rho)x_2)\leq \rho x_1+(1-\rho)x_2 f(ρx1+(1ρ)x2)ρx1+(1ρ)x2即得。
    由题意可知, w c T x 1 > w c ˉ T x 1 w_c^Tx_1>w_{\bar{c}}^Tx_1 wcTx1>wcˉTx1 w c T x 2 > w c ˉ T x 2 w_c^Tx_2>w_{\bar{c}}^Tx_2 wcTx2>wcˉTx2
    则: ρ ( w c T x 1 − w c ˉ T x 1 ) > 0 \rho(w_c^Tx_1-w_{\bar{c}}^Tx_1)>0 ρ(wcTx1wcˉTx1)>0 ( 1 − ρ ) ( w c T x 2 − w c ˉ T x 2 ) > 0 (1-\rho)(w_c^Tx_2-w_{\bar{c}}^Tx_2)>0 (1ρ)(wcTx2wcˉTx2)>0
    两式相加: ρ ( w c T x 1 − w c ˉ T x 1 ) + ( 1 − ρ ) ( w c T x 2 − w c ˉ T x 2 ) > 0 \rho(w_c^Tx_1-w_{\bar{c}}^Tx_1)+(1-\rho)(w_c^Tx_2-w_{\bar{c}}^Tx_2)>0 ρ(wcTx1wcˉTx1)+(1ρ)(wcTx2wcˉTx2)>0
    整理得:
    w c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > w c ˉ T ( ρ x 1 + ( 1 − ρ ) x 2 ) w_c^T(\rho x_1+(1-\rho)x_2)>w_{\bar{c}}^T(\rho x_1+(1-\rho)x_2) wcT(ρx1+(1ρ)x2)>wcˉT(ρx1+(1ρ)x2)
    故得证。
    在这里插入图片描述在这里插入图片描述
    在这里插入图片描述
    答:不可以。 y ^ = σ ( w T x ) = 1 1 + e x p ( − w T X ) \hat{y}=\sigma(w^Tx)=\frac{1}{1+exp(-w^TX)} y^=σ(wTx)=1+exp(wTX)1是连续函数,不适用分类问题。平方损失同样不适合用来优化参数 w w w,因为 y ^ \hat{y} y^ y y y的距离并没有实际意义,无法表示预测的准确性。

在这里插入图片描述在这里插入图片描述
答:正则化就是对最小化经验误差函数上加约束。加入正则化可以限制权重向量的大小,防止过拟合。
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

在这里插入图片描述在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
答:
x T z = x 1 z 1 + x 2 z 2 x^Tz=x_1z_1+x_2z_2 xTz=x1z1+x2z2
( 1 + x T z ) 2 = 1 + 2 x T z + ( x T z ) 2 (1+x^Tz)^2=1+2x^Tz+(x^Tz)^2 (1+xTz)2=1+2xTz+(xTz)2
ϕ ( x ) T ϕ ( z ) = 1 + 2 x 1 z 1 + 2 x 2 z 2 + 2 x 1 x 2 z 1 z 2 + x 1 2 z 1 2 + x 2 2 z 2 2 = 1 + 2 x T z + ( x T z ) 2 \phi(x)^T\phi(z)=1+2x_1z_1+2x_2z_2+2x_1x_2z_1z_2+x_1^2z_1^2+x_2^2z_2^2=1+2x^Tz+(x^Tz)^2 ϕ(x)Tϕ(z)=1+2x1z1+2x2z2+2x1x2z1z2+x12z12+x22z22=1+2xTz+(xTz)2
得证。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CHH3213

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值