- 博客(8)
- 收藏
- 关注
原创 GBDT,xgboot
梯度提升(Gradient boosting)是一种用于回归、分类和排序任务的机器学习技术1,属于Boosting算法族的一部分。Boosting是一族可将弱学习器提升为强学习器的算法,属于集成学习(ensemble learning)的范畴。Boosting方法基于这样一种思想:对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断要好。通俗地说,就是“...
2018-05-27 20:02:56 548
转载 beta分布,dirichlet分布,gamma函数
gamma函数是用来归一化的,也就是用在beta分布和狄利克雷分布中当作系数。beta分布式单变量分布(硬币),狄利克雷是多变量分布(骰子)。先由二项分布引入beta分布,再扩展到dirichlet分布,最后还是要用来解释lda主题模型。转载自https://blog.csdn.net/jteng/article/details/60334628...
2018-05-25 15:45:16 1430
原创 逻辑回归讲解
公式推导转自 https://blog.csdn.net/pakko/article/details/37878837二分类问题之所以不用单位阶跃函数是因为广义线性模型需要单调可微条件,所以需要sigmoid函数近似。逻辑回归和线性回归区别个人感觉就是因变量的不同导致应用场景也不一样。还有就是两个的损失函数也不同线性回归损失函数是平方误差,即最小二乘法。逻辑回归损失函数是对数损失函数,因为如果使用...
2018-05-23 21:43:04 327
转载 house price案例
翻译:https://www.leiphone.com/news/201704/Py7Mu3TwRF97pWc7.html分析:https://blog.csdn.net/qilixuening/article/details/75151026
2018-05-18 15:48:07 677
转载 jupyter notebook
转载https://blog.csdn.net/lee_j_r/article/details/52791228
2018-05-17 19:50:28 124
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人