数据挖掘、推荐、广告
文章平均质量分 83
AndrewHR
这个作者很懒,什么都没留下…
展开
-
LGBM是如何处理类别特征,相比onehot编码的优势在哪
LGBM为什么可以直接输入类别特征,而不需要one-hotLGBM官方文档对如何处理类别特征的解释Optimal Split for Categorical FeaturesIt is common to represent categorical features with one-hot encoding, but this approach is suboptimal f...原创 2018-09-10 16:21:07 · 8299 阅读 · 0 评论 -
支持向量机数学证明与推导(SVM)
支持向量机(SVM)@(数据挖掘)[svm]支持向量机(SVM)一、线性可分支持向量机和硬间隔最大化二、线性可分支持向量机的对偶算法(应用拉格朗日对偶,简化原始优化问题为求解对偶问题)三、线性支持向量机与软间隔最大化四、线性支持向量机的对偶算法五、线性支持向量机的另外一种合理解释六、核技巧一、线性可分支持向量机和硬间隔最大化名词解释 线...原创 2018-07-30 10:12:05 · 3706 阅读 · 1 评论 -
线性回归和逻辑回归损失函数推导
线性回归和逻辑回归损失函数推导@(数据挖掘)线性回归和逻辑回归损失函数推导一、线性回归最小二乘loss推导二、logistics回归加sigmoid原因以及交叉熵损失函数推导一、线性回归最小二乘loss推导我们都知道线性回归是机器学习中最简单,使用范围也很广的一个算法,经典且使用。而它的损失函数最小二乘损失,大家也很熟悉,但是为什么要用最小二乘loss呢?正...原创 2018-07-30 09:57:13 · 7000 阅读 · 0 评论 -
xgboost调用sklearn的交叉验证,并且使用自定义的训练集、验证集进行模型的调参
一、概述如果你的预测模型表现得有些不尽如人意,那就用XGBoost吧。XGBoost算法现在已经成为很多数据工程师的重要武器。它是一种十分精致的算法,可以处理各种不规则的数据。 构造一个使用XGBoost的模型十分简单。但是,提高这个模型的表现就有些困难(至少我觉得十分纠结)。这个算法使用了好几个参数。所以为了提高模型的表现,参数的调整十分必要。在解决实际问题的时候,有些问题是很难回答的——你需要原创 2017-11-17 13:31:41 · 11208 阅读 · 3 评论