分类
Neekity
刷出一片天
展开
-
机器学习面试必知:简单易懂的逻辑回归
##LR推导 ## LR 假设有数据集{(x1,t1),...,(xn,tn)}\left \{ (x_{1},t_{1}),...,(x_{n},t_{n}) \right \}{(x1,t1),...,(xn,tn)} Φn=Φ(xn)\Phi _{n}=\Phi \left ( x_{n}\right )Φn=Φ(xn) 其中Φ\PhiΦ是基函数 y(Φ)=σ(wTΦ)y\le...原创 2019-02-22 18:28:58 · 939 阅读 · 0 评论 -
机器学习面试必知:SVM和LR的关系
面试中经常会被问到的问题 与线性可分的情形一样,对于线性不可分的概率分布,我们可以用最小化正则化的误差函数来重新表示SVM。这也使得我们能够强调与logistic回归模型之间的相似性和差别。 我们已经看到对于边缘边界正确的一侧数据点,即满足yntn≥1y_{n}t_{n}\geq 1yntn≥1。对于其余的数据点ξn=1−yntn>0\xi_{n}=1-y_{n}t_{n}&am...原创 2019-02-27 15:08:49 · 1109 阅读 · 0 评论 -
机器学习面试必知:一文理解支持向量机(SVM)
1. 首先我们要是决策距离最大化 我们先来求点xxx到一个超平面f(x)=wTx+bf(x)=w^{T}x+bf(x)=wTx+b的距离: 假设有一点xxx,垂直投影到超平面上对应点为x0x_{0}x0, www是垂直于超平面的一个向量, γ\gammaγ为样本xxx到超平面的距离。易知x=x0+γw∣∣w∣∣x=x_{0}+\gamma \frac{w}{||w||}x=x0+γ∣∣w∣...原创 2019-02-23 20:23:10 · 632 阅读 · 0 评论