![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
CQUPT-Wan
练习NLP两年半的云顶江流儿( ゜- ゜)つロ
GitBlog:https://cqupt-wan.github.io/
语雀:https://www.yuque.com/cqupt_wan
展开
-
逻辑斯蒂回归算法
逻辑斯蒂分布二元逻辑斯蒂回归模型二元逻辑斯蒂回归的损失函数及优化方法二元逻辑斯蒂回归的正则化逻辑回归也会面临过拟合问题,所以我们也要考虑正则化。常见的有L1正则化和L2正则化。逻辑回归的L1正则化的损失函数表达式如下,相比普通的逻辑回归损失函数,增加了L1的范数做作为惩罚,超参数作为惩罚系数,调节惩罚项的大小。二元逻辑回归的L1正则化损失函数表达式如下:...原创 2019-10-28 10:24:34 · 1863 阅读 · 0 评论 -
交叉验证
简单交叉验证首先,我们随机的将样本数据分为两部分(比如:70%的训练集,30%的测试集),然后用训练集来训练模型,在测试集上验证模型及参数。接着,我们再把样本打乱,重新选择训练集和测试集,继续训练数据和检验模型。最后我们选择损失函数评估最优的模型和参数。S折交叉验证S折交叉验证会把样本数据随机的分成S份,每次随机的选择S-1份作为训练集,剩下的1份做测试集。当这一轮完成后,重新随机选择...原创 2019-10-24 20:38:51 · 320 阅读 · 0 评论 -
损失函数
损失函数适用于分类问题的损失函数以二分类为例,y∈{+1,−1}y\in \left \{ +1,-1 \right \}y∈{+1,−1},损失函数通常表示为yf(x)yf(x)yf(x)的递减函数,我们希望sign(f(xi,θ))=yisign\left ( f \left ( x_{i}, \theta \right ) \right ) = y_{i}sign(f(xi,θ))=...原创 2019-10-24 15:39:43 · 253 阅读 · 0 评论