模型调参
NanciZhao
这个作者很懒,什么都没留下…
展开
-
randomForest调参指南
一、参数意义 1)需要调参的参数包括两部分,第一部分是Bagging框架的参数;第二部分是CART决策树的参数; n_estimators=5,参考范围[1,201],弱学习器的个数,n_estimators太小,容易欠拟合,太大,容易过拟合。增加‘子模型数’可以明显降低整体模型的方差,且不会对子模型的偏差和方差有任何影响;模型的准确度会随着‘子模型数’的增加而提高; bootstrap:默...原创 2019-12-06 10:26:13 · 2186 阅读 · 0 评论 -
SVM.SVC调参实战总结与指南
一、API SVC(C=1.0,kernel=’rbf’,degree=3,gamma=’auto_deprecated’,coef0=0.0,shrinking=True,probability=False,tol=0.001,cache_size=200,class_weight=None,verbose=False,max_iter=-1,decision_func...原创 2019-11-18 18:20:39 · 3640 阅读 · 0 评论 -
学习曲线与过拟合、欠拟合
一、什么是学习曲线 学习曲线是不同训练集大小,模型在训练集和验证集上的得分变化曲线。 学习曲线图的横坐标是x_train的数据量,纵坐标是对应的train_score, test_score。随着训练样本的逐渐增加,算法练出的模型的表现能力; 表现能力:也就是模型的预测准确率,使用均方误差表示;学习率上体现了模型相对于训练集和测试集两类数据的均方误差。 二、交叉验证如何使用 2.1 什么...原创 2019-11-14 10:00:04 · 1333 阅读 · 0 评论 -
xgboost调参指南与实战
1.XGboost的参数 1)通用参数:宏观函数控制; 2)Booster参数:控制每一步的booster(tree/regression); 3)学习目标参数:控制训练目标的表现。 1.1 通用参数 booster: default gbtree 选择每次迭代的模型,有两种选择:gbtree / gbliner nthread:用来进行多线程控制,应当输入系统的核数 1.2 Boo...原创 2019-11-12 16:01:46 · 983 阅读 · 0 评论