机器学习
文章平均质量分 83
Freeman_zxp
这个作者很懒,什么都没留下…
展开
-
GBDT算法原理以及实例理解
【尊重原创,转载请注明出处】http://blog.csdn.net/zpalyq110/article/details/79527653 GBDT 的全称是 Gradient Boosting Decision Tree,梯度下降树,在传统机器学习算法中,GBDT算的上TOP3的算法。想要理解GBDT的真正意义,那就必须理解GBDT中的Gradient Boosting 和Decision...原创 2018-03-12 21:21:00 · 143676 阅读 · 171 评论 -
学习率衰减 Learning Rate Decay
Why should learning rate decay? 以目前最主流的参数优化算法Gradient Descent为例,为了让梯度下降的性能更优,我们需要将学习率设定在一个合适的范围。具体来说,学习率其实就是算法的步长,一步走多少决定了很多事情:步子大了,优化效率高,很可能一下越过最优解;相反,步子小了,优化效率低,很可能陷进一个局部最优解怎...原创 2018-08-11 13:39:07 · 2078 阅读 · 0 评论 -
奇异值分解(SVD)原理及实例分析
1. 简介奇异值分解(Singular Value Decomposition,简称SVD)是在机器学习领域广泛应用的算法,它不仅可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。本文通过分析原理,推导公式,以及具体实例演示来总结一下SVD。必备线性代数基础:方阵:行数等于列数的矩阵对角阵:只有对角线上有非0元素的矩阵对称阵:元素以主对角线为对称轴对应相等的矩阵...原创 2019-02-02 17:39:08 · 20804 阅读 · 11 评论