银行风控案例-python学习笔记

前言:

风险控制是挖掘中最为常见的应用,属于监督学习的“分类器”使用案例。我们通过以往历史数据判断用户违约的概率。本文使用了Logistic Regression 方法完成案例。

注:

根据CDA课程自己总结的学习笔记。使用的是ipython,数据及代码都已上传至个人网盘http://pan.baidu.com/s/1ntR2tmD。

如果有任何问题或错误欢迎各位指正 liedward@qq.com谢谢。


风控模型开发流程

·        数据抽取

·        数据探索

·        建模数据准备

·        变量选择

·        模型开发与验证

·        模型部署

·        模型监督

加载包:

importos

importsys

importstring

importpymysql

importnumpyasnp

importpandasaspd

importstatsmodels.apiassm

importmatplotlib.pyplotasplt

%matplotlibinline

importseabornassns

importsklearn.cross_validationascross_validation

importsklearn.treeastree

importsklearn.ensembleasensemble

importsklearn.linear_modelaslinear_model

importsklearn.svmassvm

importsklearn.feature_selectionasfeature_selection

importsklearn.metricsasmetrics

 

  1. 数据抽取
model_data = pd.read_csv("credit_develop.csv")
model_data.head()#查看数据格式

读取数据后查看大致数据的情况,主要看每个字段的格式属性。比如Branch_of_Bank等字段为分类变量,后续需要进行虚拟化变量处理。


  1. 数据探索

数据探索是建模人员了解特征时使用的方法,可以通过数据表或是图形的方式了解整体数据。

model_data.describe().T


查看数据的分布。

data = model_data["Credit_Score"].dropna() # 去除缺失值
sns . distplot ( data )

查看信用分数的分布情况

plt . boxplot ( data )


利用箱线图查看数据离散情况

model_data=model_data.drop_duplicates()#去除重复项

填充缺失值

model_data = model_data.fillna(model_data.mean()) #用均值来填充

变量相似度分析,变量聚类

simpler  =  np . random . randint ( 0 , len ( model_data ), size = 50 )

sns.clustermap(model_data.iloc[simpler,3:].T,col_cluster=False,row_cluster=True)

  1. 生成模型训练/测试数据集

将分类变量变为虚拟变量

Area_Classification_dummy = pd.get_dummies(model_data["Area_Classification"],prefix="Area_Class")
model_data . join ( Area_Classification_dummy )

model_data.join(model_data[="Branch"))

·        分成目标变量和应变量

target = model_data["target"]
pd.crosstab(target,"target")
data = model_data.ix[ :,'Age':]

·        分成训练集和测试集,比例为6:4

train_data, test_data, train_target, test_target = cross_validation.train_test_split(data, target, test_size=0.4, random_state=0)
  1. 筛选变量

因为使用的是普通的罗吉斯回归,所以变量筛选变得尤为重要。如果筛选不当会产生过拟合或是欠拟合现象。(当然可以使用一些更高级的算法完成筛选功能)首先使用最原始的方法线性相关系数。

corr_matrix = model_data.corr(method='pearson')
corr_matrix = corr_matrix.abs()
sns.set(rc={"figure.figsize": (10, 10)})
sns.heatmap(corr_matrix,square=True,cmap="Blues")

corr = model_data.corr(method='pearson').ix["target"].abs()
corr.sort(ascending=False)
corr . plot ( kind = "bar" , title = "corr" , figsize =[ 12 , 6 ])


·        使用随机森林方法来选择模型模型变量

rfc = ensemble.RandomForestClassifier(criterion='entropy', n_estimators=3, max_features=0.5, min_samples_split=5)
rfc_model = rfc.fit(train_data, train_target)
rfc_model.feature_importances_
rfc_fi = pd.DataFrame()
rfc_fi["features"] = list(data.columns)
rfc_fi["importance"] = list(rfc_model.feature_importances_)
rfc_fi=rfc_fi.set_index("features",drop=True)
rfc_fi.sort_index(by="importance",ascending=False).plot(kind="bar",title="corr",figsize=[12,6])

5.模型训练

  • 使用原始变量进行logistic回归
In [39]:
logistic_model = linear_model.LogisticRegression()
logistic_model.fit(train_data, train_target)
Out[39]:
LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,
          intercept_scaling=1, penalty='l2', random_state=None, tol=0.0001)
In [40]:
test_est = logistic_model.predict(test_data)
train_est = logistic_model.predict(train_data)
In [41]:
test_est_p = logistic_model.predict_proba(test_data)[:,1]
train_est_p = logistic_model.predict_proba(train_data)[:,1]
In [42]:
print metrics.classification_report(test_target, test_est)
             precision    recall  f1-score   support

          0       0.68      0.61      0.64      2825
          1       0.64      0.71      0.67      2775

avg / total       0.66      0.66      0.66      5600

In [43]:
print metrics.classification_report(train_target, train_est)
             precision    recall  f1-score   support

          0       0.67      0.63      0.65      4175
          1       0.66      0.70      0.68      4225

avg / total       0.67      0.67      0.66      8400

In [44]:
metrics.zero_one_loss(test_target, test_est)
Out[44]:
0.34053571428571427
In [45]:
metrics.zero_one_loss(train_target, train_est)
Out[45]:
0.33476190476190482
目标样本和非目标样本的分数分布
In [46]:
red, blue = sns.color_palette("Set1",2)
sns.kdeplot(test_est_p[test_target==1], shade=True, color=red)
sns.kdeplot(test_est_p[test_target==0], shade=True, color=blue)
Out[47]:
<matplotlib.axes._subplots.AxesSubplot at 0x2183aa20>

ROC曲线

      
      
[python] view plain copy
在CODE上查看代码片 派生到我的代码片
  1. fpr_test, tpr_test, th_test = metrics.roc_curve(test_target, test_est_p)  
  2. fpr_train, tpr_train, th_train = metrics.roc_curve(train_target, train_est_p)  
  3. plt.figure(figsize=[6,6])  
  4. plt.plot(fpr_test, tpr_test, color=blue)  
  5. plt.plot(fpr_train, tpr_train, color=red)  
  6. plt.title('ROC curve')  

其他机器学习算法

[python] view plain copy
在CODE上查看代码片 派生到我的代码片
  1. lr = linear_model.LogisticRegression()  
  2. lr_scores = cross_validation.cross_val_score(lr, train_data, train_target, cv=5)  
  3. print("logistic regression accuracy:")  
  4. print(lr_scores)  
  5. ​  
  6. clf = tree.DecisionTreeClassifier(criterion='entropy', max_depth=8, min_samples_split=5)  
  7. clf_scores = cross_validation.cross_val_score(clf, train_data, train_target, cv=5)  
  8. print("decision tree accuracy:")  
  9. print(clf_scores)  
  10. ​  
  11. rfc = ensemble.RandomForestClassifier(criterion='entropy', n_estimators=3, max_features=0.5, min_samples_split=5)  
  12. rfc_scores = cross_validation.cross_val_score(rfc, train_data, train_target, cv=5)  
  13. print("random forest accuracy:")  
  14. print(rfc_scores)  
  15. ​  
  16. etc = ensemble.ExtraTreesClassifier(criterion='entropy', n_estimators=3, max_features=0.6, min_samples_split=5)  
  17. etc_scores = cross_validation.cross_val_score(etc, train_data, train_target, cv=5)  
  18. print("extra trees accuracy:")  
  19. print(etc_scores)  
  20. ​  
  21. gbc = ensemble.GradientBoostingClassifier()  
  22. gbc_scores = cross_validation.cross_val_score(gbc, train_data, train_target, cv=5)  
  23. print("gradient boosting accuracy:")  
  24. print(gbc_scores)  
  25. ​  
  26. svc = svm.SVC()  
  27. svc_scores = cross_validation.cross_val_score(svc, train_data, train_target, cv=5)  
  28. print("svm classifier accuracy:")  
  29. print(svc_scores)  
  30. ​  
  31. abc = ensemble. AdaBoostClassifier(n_estimators=100)  
  32. abc_scores = cross_validation.cross_val_score(abc, train_data, train_target, cv=5)  
  33. print("abc classifier accuracy:")  
  34. print(abc_scores)  
       
       
[python] view plain copy
在CODE上查看代码片 派生到我的代码片
  1. logistic regression accuracy:  
  2. 0.66785714  0.65416667  0.65357143  0.65535714  0.65833333]  
  3. decision tree accuracy:  
  4. 0.74107143  0.75654762  0.73988095  0.73035714  0.73690476]  
  5. random forest accuracy:  
  6. 0.7125      0.72142857  0.71190476  0.72083333  0.68809524]  
  7. extra trees accuracy:  
  8. 0.66964286  0.70714286  0.6827381   0.67738095  0.67797619]  
  9. gradient boosting accuracy:  
  10. 0.78214286  0.78035714  0.77202381  0.76071429  0.75119048]  
  11. svm classifier accuracy:  
  12. 0.50297619  0.50595238  0.50654762  0.50297619  0.50297619]  
  13. abc classifier accuracy:  
  14. 0.76785714  0.76488095  0.76904762  0.74940476  0.75      ]  
  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值