![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
阿里天池训练营
Kallymi
这个作者很懒,什么都没留下…
展开
-
机器学习 task2 XGBoost
一、概要 了解GBDT(梯度提升决策树)、XGBoost XGBoost使用、调参 二、主要知识点 GBDT:参考这里 简单来说,就是所有树的结果相加等于预测值,然后下一棵树继续拟合误差函数对预测值的残差(预测值与真实值之间的误差),直到得到真实值。 梯度提升:参考这里 XGBoost:参考这里 ...原创 2021-04-16 18:04:50 · 48 阅读 · 0 评论 -
机器学习 task 1 逻辑回归
一、概要 逻辑回归(Logistic regression,简称LR),一种分类算法,常用于二分类,也可用于多分类。 逻辑回归模型 sigmoid函数 似然函数和损失函数 梯度下降法 二、主要知识点 LR的最终目的是找到w的最佳取值,使得预测结果更准确。 sigmoid 函数图像如下: sigmod将预测结果限定在[0-1]之间,正好可以作为该结果出现的概率 似然函数和损失函数 LR中,w的取值是通过最大化似然函数或最小化损失函数得到的,常用梯度下降,牛顿法等。 参考链原创 2021-04-13 19:03:00 · 79 阅读 · 2 评论