![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数据挖掘--A4 建立模型
数据挖掘--A4 建立模型
一道微光
Young
展开
-
剪枝,预剪枝,后剪枝
剪枝是为了降低树模型的过拟合。 预剪枝 PrePrune:预剪枝,及早的停止树增长。 通过提前停止树的构造进行剪枝. 最大深度:max depth 树的棵树、最小分裂的信息增益。 信息增益小于一定的阈值 后剪枝 后剪枝的剪枝过程是删除一些子树,然后用其叶子节点代替,这个叶子节点所标识的类别通过大多数原则(majority class criterion)确定。 用最可能的叶子节点来替换该子树。 后剪枝首先通过完全分裂构造完整的决策树,允许过拟合,然后采取一定的策略来进行剪枝,常用的后剪枝策略包括: 降低错误原创 2021-11-29 11:35:57 · 977 阅读 · 0 评论 -
离线服务器 pip批量安装 python模块的方法--单个、批量、指定版本
服务器python模块安装离线下载安装包下载单个离线包批量下载离线包 -离线安装安装单个离线包 -批量安装离线包下载linux指定版本的包安装tar包 可以实现模块的单个或批量下载和安装。 可以实现linux版本的模块下载 可以实现模块的指定版本下载。 离线下载安装包 下载单个离线包 pip download -d your_offline_packages <package_name> 批量下载离线包 - pip download -d your_offline_packages -r原创 2021-07-29 11:23:30 · 2315 阅读 · 0 评论 -
xgboost和LightGBM的模型参数寻优的代码---奥图那optuna篇
文章目录XGBoostLightGBM 主要给出了xgboost和lightGBM调参的实现代码。这个寻优过程挺快的,可以指定不同的测试集。给定参数的寻优范围可以实现自动寻优。 XGBoost 主要需要更改的地方: param 中指定搜索的范围 **param 将参数传入XGBClassifier 设置需要测试的轮数 n_trials # xgboost trainrecords = pd.read_csv(r"./traindata/traindata_combine.csv",encoding="原创 2021-07-29 10:49:27 · 878 阅读 · 0 评论