sklearn
zhong_ddbb
这个作者很懒,什么都没留下…
展开
-
LightGBM教程
参数参数说明boosting /boost/boosting_type用于指定弱学习器的类型,默认值为 ‘gbdt’,表示使用基于树的模型进行计算。还可以选择为 ‘gblinear’ 表示使用线性模型作为弱学习器。可选参数有:gbdt’,使用梯度提升树rf’,使用随机森林‘goss’,使用单边梯度抽样算法,速度很快,但是可能欠拟合。objective用于指定学习任务及相应的学习目标,常用的可选参数值如下:regression”,使用L2正则项的回归模型(默认值)。“regre原创 2020-07-11 15:24:20 · 3014 阅读 · 0 评论 -
Xgboost使用教程
文章目录参数通用参数(General Parameters)Booster参数(Booster Parameters)学习目标参数(Task Parameters)实例XGBClassifierXGBRegression调参参数Xgboost的参数分为三种:通用参数(General Parameters)该参数控制在提升(boosting)过程中使用哪种booster,常用的booster有树模型(tree)和线性模型(linear model)。参数说明booster有两种原创 2020-07-11 11:09:32 · 2022 阅读 · 0 评论 -
sklearn中RandomForest详解
文章目录随机森林基本原理RandomForestClassifier参数说明实例RandomForestClassifier随机森林基本原理随机森林是一种bagging算法。bagging是一种随机采样(bootsrap)算法,与boosting不同,bagging弱学习器之间没有依赖关系,bagging通过采样训练不同的模型,然后进行组合。随机森林通过采样训练不同的决策树模型,然后进行组合。注:注意到这和GBDT的子采样是不同的。GBDT的子采样是无放回采样,而Bagging的子采样是放回采样。原创 2020-07-10 14:15:37 · 8369 阅读 · 0 评论 -
sklearn中的LogisticRegression
sklearn中的逻辑回归接口如下:sklearn.linear_model.LogisticRegression(penalty='l2', *, dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='lbfgs', max_iter=100, multi_class='auto', verbose=0, warm_star原创 2020-07-09 17:07:21 · 11000 阅读 · 2 评论 -
sklearn中的线性回归,岭回归
文章目录线性回归ParametersAttributesMethods实例岭回归参数说明实例网格调参调参结果应用Lasso回归线性回归线性回归数学模型如下:y^(w,x)=w0+w1x1+...+wpxp\hat {y}(w,x)= w_0 + w_1 x_1 + ... + w_p x_py^(w,x)=w0+w1x1+...+wpxp其目标函数如下:minw∣∣Xw−y∣∣22\min_ {w} || X w-y || _2 ^ 2wmin∣∣Xw−y∣∣22模型的原创 2020-07-09 14:05:34 · 1297 阅读 · 0 评论