机器学习
lt77701
数据挖掘,机器学习入门
展开
-
Windows下安装xgboost详解;
1.Windows安装xgboost详解工具:C++编译器(此处使用git for Windows ,MinGW);1. 下载git for Windows ,MinGW;2. 安装git for Windows (下一步,下一步,,,),MinGW(注意manager 中一定要选择c++ compiler的框!!!)3.打开git bash,进入你想要安装xgboost的文件夹原创 2016-04-05 14:47:25 · 661 阅读 · 1 评论 -
出现module 'xgboost' has no attribute 'DMatrix'的临时解决方法
出现module 'xgboost' has no attribute 'DMatrix'的临时解决方法 最近刚刚开始使用xgboost,安装神马的都没问题。用了几天之后突然出现这样的问题: 我是想尽了办法,各种重装,最后终于还是没成,,,,,看到网上有一个办法: 重新新建Python文件,把你的代码拷过去;或者重命名也可以;还不行,就把代码复制到别的原创 2016-04-05 15:03:31 · 15794 阅读 · 10 评论 -
神经网络/多层感知器(MLP)架构:选择隐藏层数量和大小的标准
神经网络/多层感知器隐藏层个数以及大小设置标准:隐藏层个数: 一个零隐藏层的模型可以解决线性可分数据。所以除非你早知道你的数据线性不可分,证明它也没什么坏处—为什么使用比任务需求更困难的模型。如果它是线性可分的那么一个更简单的技术可以工作,感知器也可以。 假设您的数据确实需要通过非线性技术进行分离,则始终从一个隐藏层开始。几乎肯定这就是你所需要的。如果你的数据使用MLP是可分的,那么原创 2017-07-26 11:32:31 · 53119 阅读 · 1 评论 -
xgboost调参
**在机器学习中调参是一门黑暗艺术,一个模型的最优参数取决于许多因素,因此不可能建立一个全方位的调参指导。 这篇文档试图提供一些关于xgboost参数的指导。**理解权衡Bias-Variance(偏倚和方差)如果你上过机器学习或者统计课程,这可能是其中最重要的概念之一。当我们允许模型变得更复杂的时候(比如,更深),模型会更加拟合训练数据,变成只有一点偏倚的模型。然而这样复杂的模型需要更多的数据拟翻译 2017-08-23 14:48:01 · 1002 阅读 · 0 评论