模型训练与优化

数据集拆分

from sklearn.model_selection import train_test_split

# 分割数据集到训练集和测试集
# lb.data 特征值
# lb.target 目标值
# test_size=0.25  75%数据训练    25%数据测试
# 返回  训练特征值, 测试特征值, 训练目标值, 测试目标值 
x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)

交叉验证

from sklearn.model_selection import cross_val_score
clf = svm.SVC(kernel='linear', C=1)
# cif 估计器对象
# iris.data:特征数据
# iris.target:目标值
# cv=5   5次交叉验证
scores = cross_val_score(clf, iris.data, iris.target, cv=5)
print(scores)

# 结果                              
array([ 0.96...,  1\.  ...,  0.96...,  0.96...,  1\.        ])

网格搜索

通常情况下,有很多参数是需要手动指定的(如k-近邻算法中的K值), 这种叫超参数。但是手动过程繁杂,所以需要对模型预设几种超参数组 合。每组超参数都采用交叉验证来进行评估。最后选出最优参数组合建 立模型。

from sklearn.model_selection import GridSearchCV

param = {"n_estimators": [120, 200, 300, 500, 800, 1200], "max_depth": [5, 8, 15, 25, 30]}

# 网格搜索与交叉验证
# rf:估计器对象
# cv=2:指定几折交叉验证
gc = GridSearchCV(rf, param_grid=param, cv=2)

gc.fit(x_train, y_train)

print("准确率:", gc.score(x_test, y_test))

print("查看选择的参数模型:", gc.best_params_) 

精确率(Precision)与召回率(Recall)

 

 

 

from sklearn.metrics import classification_report
# 返回召回率
# labels:目标值
# target_names:目标值对应的名称
classification_report(y_test, y_predict, labels=[2, 4], target_names=["良性", "恶性"])

  

 

转载于:https://www.cnblogs.com/yoyo1216/p/10334271.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值