机器学习
Karate_Y
先努力让自己发光,对的人才能迎着光而来
展开
-
(面试题)逻辑回归LR的特征为什么要先离散化
在工业界,很少直接将连续值作为特征喂给逻辑回归模型,而是将连续特征离散化为一系列0,1特征交给逻辑回归模型,这样做的优势有以下几点:1. 稀疏向量内积乘法运算速度非常快,计算结果方便存储,容易scalable(扩展)。2. 离散化后的特征对异常数据有很强的鲁棒性: 比如一个特征是年龄>30是1,否则是0。如果特征没有离散化,一个异常数据"年龄300岁"会给模型造成很大的干扰。3....原创 2020-03-24 20:02:26 · 584 阅读 · 1 评论 -
卷积神经网络的应用场景总结
一维卷积一般用于序列模型,自然语言处理模型二维卷积一般用于计算机视觉,图像处理领域三维卷积一般用于医学领域(CT影响),视频处理领域(检测动作或用户行为)...原创 2019-12-13 09:56:15 · 5600 阅读 · 0 评论 -
XGBoost与GBDT的联系和区别有哪些?
原始的GBDT算法基于经验损失函数的负梯度来构造新的决策树,只是在决策树构建完成后再进行剪枝。而XGBoost在决策树构建阶段就加入了正则项。1. GBDT是机器学习算法,XGBoost是该算法的工程实现。2. 在使用CART作为基分类器时,XGBoost显式地加入了正则项来控制模型的复杂度,有利于防止过拟合,从而提高模型的泛化能力。3. GBDT在模型训练时只使用了代价函...原创 2019-12-06 19:43:58 · 1133 阅读 · 0 评论 -
GBDT的一些知识点
Bagging和Boosting两大集成算法。相比与Bagging中各个弱分类器可以独立地进行训练,Boosting中的弱分类器需要一次生成。在每一轮迭代中,基于已生成的弱分类器集合(即当前模型)的预测结果,新的弱分类器会重点关注那些还没有被正确预测的样本。 Gradient Boosting是Boosting中的一大类算法,其基本思想是根据当前模型损失函数的负梯度信息来训练新加入的弱分类器,然...原创 2019-12-06 19:29:24 · 189 阅读 · 0 评论