机器学习
文章平均质量分 59
jyli2_11
这个作者很懒,什么都没留下…
展开
-
拉格朗日乘子法
转自http://www.cnblogs.com/wangxiu/p/5653040.html拉格朗日乘子法是解决极值问题的方法。 本方法是计算多元函数在约束条件下的极值问题的方法。1、多元函数与约束问题 如下图所示,f(x,y)为多元函数,g(x,y)=c为约束条件。目的是计算在约束条件下多元函数的极值。 虚线为f(x,y)=d d取不同的值时,将原始图像投转载 2017-05-24 18:32:15 · 4211 阅读 · 1 评论 -
svm
转自 http://www.cnblogs.com/wangxiu/p/5663140.html在Lagrange乘子法中,介绍了如何构建及如何使用对偶函数,对目标问题进行求解。这一章利用L乘子法对SVM进行推导。SVM 即支持向量机,是通过求解超平面进行分类的一种算法。所谓的支持向量,是在最大间隔边界上的向量。问题来源: 如何求解上图中红色线的参数:W b转载 2017-05-24 18:33:21 · 404 阅读 · 0 评论 -
win10环境 python添加xgboost包
最近参加比赛,发现用这个包的很多,效果也不错。所以想安装下来使用下。网上大多数博客写的还是下载下来以后找到windows文件夹。。。但官网最新版本已经没有这个文件夹了,所以自己总结了一下。准备:python安装 我用的是anaconda安装包git安装 网上教程很多 ,大家自己参考哈原创 2017-05-25 17:05:08 · 640 阅读 · 0 评论 -
XGBoost:参数解释
转自http://blog.csdn.net/zc02051126/article/details/46711047XGBoost参数在运行XGboost之前,必须设置三种类型成熟:general parameters,booster parameters和task parameters:General parameters:参数控制在提升(boosting)过程中使用哪种boos转载 2017-05-25 20:33:54 · 363 阅读 · 0 评论 -
GDBT
转载http://blog.csdn.net/a8198252941.模型提升方法实际采用加法模型(即基函数的线性组合)与前向分布算法。以决策树为基函数的提升方法称为提升树(boosting tree)。对分类问题决策树是二叉分类树,对回归问题决策树是二叉决策树。提升树模型可以表示为决策树的加法模型:其中,表示决策树;为决策树的参数;M为树的个数2.学习过程回归问题提升树使转载 2017-05-22 20:18:53 · 931 阅读 · 0 评论 -
xgboost
转载http://blog.csdn.net/a8198252941.序 距离上一次编辑将近10个月,幸得爱可可老师(微博)推荐,访问量陡增。最近毕业论文与xgboost相关,于是重新写一下这篇文章。 关于xgboost的原理网络上的资源很少,大多数还停留在应用层面,本文通过学习陈天奇博士的PPT、论文、一些网络资源,希望对xgboost原理进行深入理解。(笔者在最后的参考转载 2017-05-22 20:20:13 · 484 阅读 · 0 评论