![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 88
人工智障之深度瞎学
从入门到上瘾
展开
-
PCA和LDA原理及异同点最通俗易懂的解释
点我点我转载 2019-10-06 19:28:41 · 927 阅读 · 1 评论 -
机器学习中的各种距离公式(欧式距离、曼哈顿距离、切比雪夫距离、余弦距离……)
原创 2019-10-03 16:46:43 · 1323 阅读 · 0 评论 -
机器学习知识点总结
1、xgboost和gdbtGDBT在优化时只用到一阶导数信息,而XGBoost用的时泰勒展开,同时用到了一阶和二阶信息,并且可以自定义代价函数。损失函数更精确。XGboost用到了正则项,为了防止过拟合。2、防止过拟合(overfit)的方法正则化:即在对模型的目标函数(objective function)或代价函数(cost function)加上正则项。(L1正则与L2正则...原创 2019-06-22 11:04:28 · 949 阅读 · 0 评论 -
XGBoost原理的详细解释推导及面试常见问题
论文原文:(2016.03)XGBoost: A Scalable Tree Boosting System问题:XGBoost中树结点分裂的依据是什么?如何计算树节点的权值?为防止过拟合,XGBoost做了哪些改进?一、XGBoost的目标函数XGBoost的目标函数由训练损失和正则化项两部分组成,目标函数定义如下:其中:(1)l 代表损失函数,常见的损失函数有:(2)...转载 2019-10-06 22:03:49 · 1169 阅读 · 0 评论