3-2 在线性空间中,证明一个点x到的距离为.
解答:取该平面中任意一点做向量,其中点x到该平面的距离为在平面法向量上的投影(设),,为与的夹角。
将图形大概可以作出,取一平面为例,如图
,所以
,即
,因为点在平面内,所以有,带入到d中得:.
3-5 在Logistic回归中,是否可以用去逼近正确的标签y,并用平方损失最小化来优化参数w?
解答:从理论上来说,平方损失函数也可以用于分类问题,但并不适合。首先,最小化平方损失函数本质上等同于在误差服从高斯分布的假设下的极大似然估计,然而大部分分类问题的误差并不服从高斯分布。而且在实际应用中,交叉嫡在和Softmax激活函数的配合下,能够使得损失值越大导数越大,损失值越小导数越小,这就能加快学习速率。然而若使用平方损失函数,则损失越大导数反而越小,学习速率很慢。
所以说,当sigmod为激活函数时,不能使用平方损失函数来优化参数,对于二分类来说,当>0时,分类器预测正确,并且越大,模型的预测越准确;当<0时,分类器预测越不准确,因此,一个好的损失函数应该随着的增大而减小,所以应用交叉熵损失函数。
3-6 在Softmax回归的风险函数中,如果加上正则化项会有什么影响?
解答:
采用交叉熵损失函数,Softmax回归模型的风险函数为
需要注意的是,Softmax回归中,使用的c个权重向量是冗余的,即对所有的权重向量都减去一个同样的向量v,不改变其输出结果。因此,Softmax回归往往需要使用政策话来约束其参数。此外,我们还可以利用这个特效去避免计算Softmax函数时在数值上的溢出问题:
加入正则化后:
,
则,
更新参数时:,
从上述计算中可以看出,加入正则化后,在更新参数时每次需要减去,从而使得参数不会太大,便不会造成溢出之类的错误发生,同时也可以抑制过拟合。