2020春秋招聘 人工智能方向 各大厂面试常见题整理二(附答案)(阿里腾讯华为字节)

喜欢的话请关注我们的微信公众号~《你好世界炼丹师》。

  • 公众号主要讲统计学,数据科学,机器学习,深度学习,以及一些参加Kaggle竞赛的经验。
  • 公众号内容建议作为课后的一些相关知识的补充,饭后甜点。
  • 此外,为了不过多打扰,公众号每周推送一次,每次4~6篇精选文章。

微信搜索公众号:你好世界炼丹师。期待您的关注。


SVM的损失函数

hinge loss。 l o s s = m a x ( 0 , 1 − y ^ ∗ f ( x ) ) loss = max(0,1-\hat{y}*f(x)) loss=max(0,1y^f(x))

逻辑回归不能解决什么问题

逻辑回归虽然用到了sigmoid函数,看起来是非线性的,但是其实还是一个线性分类器。所以解决问题的时候要求自变量和因变量之间存在线性关系。

LR损失函数是什么,LR的梯度是如何表示的

  • LR是logistic regression
  • 损失函数是cross entropy
  • L o s s = − ∑ i = 1 n ( ( y ^ i ) ∗ l n ( σ ( z i ) ) + ( 1 − y ^ i ) ∗ l n ( 1 − σ ( z i ) ) ) Loss=-\sum^{n}_{i=1}{((\hat{y}_i)*ln(\sigma(z_i))+(1-\hat{y}_i)*ln(1-\sigma(z_i)))} Loss=i=1n((y^i)ln(σ(zi))+(1y^i)ln(1σ(zi)))
  • 梯度就求个导数就行了,结果和Linear regression的均方差的梯度完全一样!第一次算到这里的时候才真正意识到,回归问题的均方差就是分类问题的交叉熵。
    在这里插入图片描述

LR为什么用log损失而不是均方误差损失(最小二乘)

算一下就知道原因了,梯度会在不该等于0的时候等于0
在这里插入图片描述

L1范数会产生什么问题

L1范数是向量中各元素绝对值的和。倾向于让特征权重为0,实现稀疏;
在这里插入图片描述

L2范数会产生什么问题

L2范数是向量中各个元素的平方和的平方根。虽然也会减小特征权重的值,但是并不会为0,而是保持在一个比较小的数值。L2可以缓解特征之间的多重共线性。

为什么不用L0

L0是非零参数的个数,不可导,会变成NP难题。可以使用L1来代替。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值