机器学习算法——demo

为脑残的面试问题而生,哈哈~

(1)LR为什么不可以用MSE作为损失函数?

MSE 会有梯度消失现象
MSE 的导数非凸 求最优解困难
在这里插入图片描述在这里插入图片描述

(2)L1 相比于 L2 为什么容易获得稀疏解?

在这里插入图片描述

(3)L1正则化项如何求导?

对于目标函数不是处处连续可微的情况,通常是使用次梯度(subgradient)来进行优化,由于次梯度自身的原因会导致两方面问题:求解慢、通常不会产生稀疏解。
Proximal Algorithm 自然肩负了要解决这两个问题的使命。(近似算法——信赖域思想
在这里插入图片描述

(4)为什么L1正则先验分布是拉普拉斯,L2正则先验分布是高斯?

从贝叶斯的角度来看,正则化等价于对模型参数引入 先验分布
在这里插入图片描述在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值