信用卡评分

信用卡评分

2016年1月10日

一、数据准备

1、 问题的准备

•            目标:要完成一个评分卡,通过预测某人在未来两年内将会经历财务危机的可能性来提高信用评分的效果,帮助贷款人做出最好的决策。

•            背景:

–            银行在市场经济中起到至关重要的作用。他们决定谁在什么条件下可以得到融资,并且可以创造或打破投资决策。而市场、社会,以及个人和企业都需要获得贷款。

–            信用评分算法,对默认可能性进行猜测,这是银行用来判断贷款是否应该被授予的方法。

•            准备:

–            首先是基于个人借贷的场景,确定“违约”的定义: 根据新的Basel II Capital Accord(巴塞尔二资本协议),一般逾期90天算作违约。

–            在判别指标上,选择使用历史最大违约天数。

 

2、数据的获取与整合

•            数据来源:数据来自Kaggle,cs-training.csv是有15万条的样本数据,下图可以看到这份数据的大致情况。下载地址为:https://www.kaggle.com/c/GiveMeSomeCredit/data

•            数据描述:数据属于个人消费类贷款,只考虑评分卡最终实施时能够使用到的数据应从如下一些方面获取数据:

–            基本属性:包括了借款人当时的年龄。

–            偿债能力:包括了借款人的月收入、负债比率。

–            信用往来:两年内35-59天逾期次数、两年内60-89天逾期次数、两年内90天或高于90天逾期的次数。

–            财产状况:包括了开放式信贷和贷款数量、不动产贷款或额度数量。

–            贷款属性:暂无。

–            其他因素:包括了借款人的家属数量(不包括本人在内)。

•            原始变量:

变量名

变量类型

变量描述

SeriousDlqin2yrs

Y/N

超过90天或更糟的逾期拖欠

RevolvingUtilizationOf

UnsecuredLines

percentage

无担保放款的循环利用:除了不动产和像车贷那样除以信用额度总和的无分期付款债务的信用卡和个人信用额度总额

age

integer

借款人当时的年龄

NumberOfTime30-59DaysPastDueNotWorse

integer

35-59天逾期但不糟糕次数

DebtRatio

percentage

负债比率

MonthlyIncome

real

月收入

NumberOf

OpenCreditLinesAndLoans

integer

开放式信贷和贷款数量,开放式贷款(分期付款如汽车贷款或抵押贷款)和信贷(如信用卡)的数量

NumberOfTimes90DaysLate

integer

90天逾期次数:借款者有90天或更高逾期的次数

NumberRealEstateLoans

OrLines

integer

不动产贷款或额度数量:抵押贷款和不动产放款包括房屋净值信贷额度

NumberOfTime60-89DaysPastDueNotWorse

integer

60-89天逾期但不糟糕次数:借款人在在过去两年内有60-89天逾期还款但不糟糕的次数

NumberOfDependents

integer

家属数量:不包括本人在内的家属数量

•            时间窗口:自变量的观察窗口为过去两年,因变量表现窗口为未来两年。

二、数据处理

首先去掉原数据中的顺序变量,即第一列的id变量。由于要预测的是SeriousDlqin2yrs变量,因此将其设为响应变量y,其他分别设为x1~x10变量。

1、缺失值分析及处理

在得到数据集后,我们需要观察数据的分布情况,因为很多的模型对缺失值敏感,因此观察是否有缺失值是其中很重要的一个步骤。在正式分析前,我们先通过图形进行对观测字段的缺失情况有一个直观的感受。

[html]  view plain  copy
  1. <pre name="code" class="python">matrixplot(traindata)  
 
 

[html]  view plain  copy
  1. <pre name="code" class="python">  md.pattern(traindata)  
  2.         y x1 x2 x3 x4 x6 x7 x8 x9  x10    x5        
  3.  120269 1  1  1  1  1  1  1  1  1    1     1     0  
  4.   25807 1  1  1  1  1  1  1  1  1    1     0     1  
  5.    3924 1  1  1  1  1  1  1  1  1    0     0     2  
  6.         0  0  0  0  0  0  0  0  0 3924 29731 33655  
 

利用matrixplot函数对缺失值部分进行可视化展示,上图中浅色表示值小,深色表示值大,而默认缺失值为红色。因此可以看到x5变量和x10变量,即MonthlyIncome变量和NumberOfDependents两个变量存在缺失值,具体确实情况可以见上表,monthlyincome列共有缺失值29731个,numberofdependents有3924个。

对于缺失值的处理方法非常多,例如基于聚类的方法,基于回归的方法,基于均值的方法,其中最简单的方法是直接移除,但是在本文中因为缺失值所占比例较高,直接移除会损失大量观测,因此并不是最合适的方法。在这里,我们使用KNN方法对缺失值进行填补。

[python]  view plain  copy
  1. traindata<-knnImputation(traindata,k=10,meth ="weighAvg")  

2、异常值分析及处理

关于异常值的检测,这里简单介绍以下一些检测方法:

•       单变量异常值检测:在R语言中使用函数boxplot.stats()可以实现单变量检测,该函数根据返回的统计数据生成箱线图。在上述函数的返回结果中,有一个参数out,它是异常值组成的列表。更明确的说就是里面列出了箱线图中箱须线外面的数据点。比如我们可以查看月收入分布,第一幅图为没有删除异常值的箱线图。第二幅箱线图删除异常值后,可以发现月收入主要集中分布在3000-8000之间。但是在这份分析报告中,因为我们对业务尚不熟悉,不好将大于8000的数据直接归为异常值,因此对该变量未做处理。


•       使用LOF(局部异常因子)检测异常值:LOF(局部异常因子)是一种基于密度识别异常值的算法。算法实现是:将一个点的局部密度与分布在它周围的点的密度相比较,如果前者明显的比后者小,那么这个点相对于周围的点来说就处于一个相对比较稀疏的区域,这就表明该点事一个异常值。LOF算法的缺点是它只对数值型数据有效。包‘DMwR’和包‘dprep’中的lofactor()可以计算LOF算法中的局部异常因子。

•       通过聚类检测异常值:检测异常值的另外一种方式就是聚类。先把数据聚成不同的类,选择不属于任何类的数据作为异常值。例如,基于密度的聚类DBSCAN算法的实就是将与数据稠密区域紧密相连的数据对象划分为一个类,因此与其他对象分离的数据就会作为异常值。也可以使用K均值算法实现异常值的检测。首先通过把数据划分k组,划分方式是选择距离各自簇中心最近的点为一组;然后计算每个对象和对应的簇中心的距离(或者相似度),并挑出拥有最大的距离的点作为异常值。

首先对于x2变量,即客户的年龄,我们可以定量分析,发现有以下值:

[html]  view plain  copy
  1. <pre name="code" class="plain">unique(traindata$x2)  
  2. [1]  45  40 38  30  49  74  57 39  27  51 46  76  64 78  53  43  25  
  3. [18]32  58 50  69  24 28  62  42 75  26  52 41  81  31 68  70  73  
  4. [35]29  55 35  72  60 67  36  56 37  66  83 34  44  48 61  80  47  
  5. [52]59  77 63  54  33 79  65  86 92  23  87 71  22  90 97  84  82  
  6. [69]91  89 85  88  21 93  96  99 94  95 101  98 103 102 107 105   0  
  7. [86]109  
 

可以看到年龄中存在0值,显然是异常值,予以剔除。

[html]  view plain  copy
  1. traindata<-traindata[-which(traindata$x2==0),]  

而对于x3,x7,x9三个变量,由下面的箱线图可以看出,均存在异常值,且由unique函数可以得知均存在96、98两个异常值,因此予以剔除。同时会发现剔除其中一个变量的96、98值,其他变量的96、98两个值也会相应被剔除

[plain]  view plain  copy
  1. [1] 2  0  1  3  4  5  7  10  6  98 12  8  9  96  13  11  
  2. [1] 0  1  3  2  5  4  98 10  9  6  7   8  15 96  11  13  14  17  12  
  3. [1] 0  1  2  5  3  98 4  6   7  8  96  11 9  

[html]  view plain  copy
  1. </pre><pre>  
 

其它变量占不作处理。

三、变量分析

1、单变量分析

我们可以简单地看下部分变量的分布,比如对于age变量,如下图:

可以看到年龄变量大致呈正态分布,符合统计分析的假设。再比如月收入变量,也可以做图观察观察,如下:

月收入也大致呈正态分布,符合统计分析的需要。

 

2、变量之间的相关性

建模之前首先得检验变量之间的相关性,如果变量之间相关性显著,会影响模型的预测效果。下面通过corrplot函数,画出各变量之间,包括响应变量与自变量的相关性。

由上图可以看出,各变量之间的相关性是非常小的。其实Logistic回归同样需要检验多重共线性问题,不过此处由于各变量之间的相关性较小,可以初步判断不存在多重共线性问题,当然我们在建模后还可以用VIF(方差膨胀因子)来检验多重共线性问题。如果存在多重共线性,即有可能存在两个变量高度相关,需要降维或剔除处理。

四、切分数据集

[html]  view plain  copy
  1. <pre name="code" class="plain">table(traindata$y)  
  2.       0     1   
  3.  139851  9879  

 

由上表看出,对于响应变量SeriousDlqin2yrs,存在明显的类失衡问题,SeriousDlqin2yrs等于1的观测为9879,仅为所有观测值的6.6%。因此我们需要对非平衡数据进行处理,在这里可以采用SMOTE算法,用R对稀有事件进行超级采样。

我们利用caret包中的createDataPartition(数据分割功能)函数将数据随机分成相同的两份。

[html]  view plain  copy
  1. <pre name="code" class="plain">set.seed(1234)   
  2. splitIndex<-createDataPartition(traindata$y,time=1,p=0.5,list=FALSE)   
  3. train<-traindata[splitIndex,]  
  4. test<-traindata[-splitIndex,]  
 

对于分割后的训练集和测试集均有74865个数据,分类结果的平衡性如下:

[html]  view plain  copy
  1. 0          1   
  2. 3 0.06685367  
  3. 0          1   
  4. 5 0.06510385  

两者的分类结果是平衡的,仍然有6.6%左右的代表,我们仍然处于良好的水平。因此可以采用这份切割的数据进行建模及预测。

五、Logistic回归

Logistic回归在信用评分卡开发中起到核心作用。由于其特点,以及对自变量进行了证据权重转换(WOE),Logistic回归的结果可以直接转换为一个汇总表,即所谓的标准评分卡格式。


2、建立模型

首先利用glm函数对所有变量进行Logistic回归建模,模型如下

[html]  view plain  copy
  1. <pre name="code" class="plain">fit<-glm(y~.,train,family = "binomial")  
  2. summary(fit)  
  3.   
  4.  Call:  
  5.  glm(formula = y ~ ., family ="binomial"data = train)  
  6.    
  7.  Deviance Residuals:   
  8.      Min      1Q   Median       3Q     Max    
  9.  -4.6144 -0.3399  -0.2772  -0.2240  3.6997    
  10.    
  11.  Coefficients:  
  12.                Estimate Std. Error z valuePr(>|z|)      
  13.  (Intercept) -1.812e+00  6.411e-02 -28.268  < 2e-16 ***  
  14.  x1         -1.846e-05  8.972e-05 -0.206 0.836948      
  15.  x2         -2.861e-02  1.276e-03 -22.428  < 2e-16 ***  
  16.  x3          5.767e-01  1.564e-02  36.867 < 2e-16 ***  
  17.  x4         -2.321e-05  1.538e-05  -1.509 0.131224      
  18.  x5         -1.355e-05  3.845e-06  -3.524 0.000425 ***  
  19.  x6         -2.769e-03  3.798e-03  -0.729 0.466051      
  20.  x7          8.468e-01  2.429e-02  34.855 < 2e-16 ***  
  21.  x8          8.620e-02  1.599e-02   5.393 6.94e-08 ***  
  22.  x9          8.294e-01  3.338e-02  24.848 < 2e-16 ***  
  23.  x10         5.126e-02  1.388e-02   3.694 0.000221 ***  
  24.  ---  
  25.  Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1  
  26.    
  27.  (Dispersion parameter for binomial familytaken to be 1)  
  28.    
  29.      Null deviance: 36747  on 74864 degrees of freedom  
  30.  Residual deviance: 29793  on 74854 degrees of freedom  
  31.  AIC: 29815  
  32.    
  33.  Number of Fisher Scoring iterations: 6  

 

          可以看出,利用全变量进行回归,模型拟合效果并不是很好,其中x1,x4,x6三个变量的p值未能通过检验,在此直接剔除这三个变量,利用剩余的变量对y进行回归。

[html]  view plain  copy
  1. <pre name="code" class="plain">fit2<-glm(y~x2+x3+x5+x7+x8+x9+x10,train,family = "binomial")  
  2. summary(fit2)  
  3.    
  4.  Call:  
  5.  glm(formula = y ~ x2 + x3 + x5 + x7 + x8 + x9+ x10, family = "binomial",   
  6.      data = train)  
  7.    
  8.  Deviance Residuals:   
  9.      Min      1Q   Median       3Q     Max    
  10.  -4.6223 -0.3402  -0.2777  -0.2239  3.5868    
  11.    
  12.  Coefficients:  
  13.                Estimate Std. Error z valuePr(>|z|)      
  14.  (Intercept) -1.825e+00  6.320e-02 -28.873  < 2e-16 ***  
  15.  x2         -2.894e-02  1.252e-03 -23.120  < 2e-16 ***  
  16.  x3          5.742e-01  1.544e-02  37.187 < 2e-16 ***  
  17.  x5         -1.185e-05  3.513e-06  -3.373 0.000744 ***  
  18.  x7          8.500e-01  2.401e-02  35.397 < 2e-16 ***  
  19.  x8          7.494e-02  1.420e-02   5.276 1.32e-07 ***  
  20.  x9          8.306e-01  3.338e-02  24.883 < 2e-16 ***  
  21.  x10         5.169e-02  1.386e-02   3.730 0.000192 ***  
  22.  ---  
  23.  Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1  
  24.    
  25.  (Dispersion parameter for binomial familytaken to be 1)  
  26.    
  27.      Null deviance: 36747  on 74864 degrees of freedom  
  28.  Residual deviance: 29797  on 74857 degrees of freedom  
  29.  AIC: 29813  
  30.    
  31.  Number of Fisher Scoring iterations: 6  

 

      第二个回归模型所有变量都通过了检验,甚至AIC值(赤池信息准则)更小,所有模型的拟合效果更好些。

 

3、模型评估

通常一个二值分类器可以通过ROC(Receiver Operating Characteristic)曲线和AUC值来评价优劣。

很多二元分类器会产生一个概率预测值,而非仅仅是0-1预测值。我们可以使用某个临界点(例如0.5),以划分哪些预测为1,哪些预测为0。得到二元预测值后,可以构建一个混淆矩阵来评价二元分类器的预测效果。所有的训练数据都会落入这个矩阵中,而对角线上的数字代表了预测正确的数目,即true positive + true nagetive。同时可以相应算出TPR(真正率或称为灵敏度)和TNR(真负率或称为特异度)。我们主观上希望这两个指标越大越好,但可惜二者是一个此消彼涨的关系。除了分类器的训练参数,临界点的选择,也会大大的影响TPR和TNR。有时可以根据具体问题和需要,来选择具体的临界点。

如果我们选择一系列的临界点,就会得到一系列的TPR和TNR,将这些值对应的点连接起来,就构成了ROC曲线。ROC曲线可以帮助我们清楚的了解到这个分类器的性能表现,还能方便比较不同分类器的性能。在绘制ROC曲线的时候,习惯上是使用1-TNR作为横坐标即FPR(false positive rate),TPR作为纵坐标。这是就形成了ROC曲线。

AUCArea Under Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.51之间。使用AUC值作为评价标准是因为很多时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而作为一个数值,对应AUC更大的分类器效果更好。


下面首先利用模型对test数据进行预测,生成概率预测值

[html]  view plain  copy
  1. <pre name="code" class="plain">pre <- predict(fit2,test)  

 

在R中,可以利用pROC包,它能方便比较两个分类器,还能自动标注出最优的临界点,图看起来也比较漂亮。在下图中最优点FPR=1-TNR=0.845,TPR=0.638,AUC值为0.8102,说明该模型的预测效果还是不错的,正确较高。

[html]  view plain  copy
  1. <pre name="code" class="plain">modelroc <- roc(test$y,pre)  
  2. plot(modelroc, print.auc=TRUEauc.polygon=TRUEgrid=c(0.1, 0.2),  
  3.      grid.col=c("green", "red"), max.auc.polygon=TRUE,  
  4.      auc.polygon.col="skyblue"print.thres=TRUE)  
  5.  <img src="https://img-blog.csdn.net/20160527101256467" alt="" />  
  6.  Call:  
  7.  roc.default(response = test$y, predictor = pre)  
  8.    
  9.  Data: pre in 69991 controls (test$y 0) <4874 cases (test$y 1).  
  10.  Area under the curve: 0.8102  

 
 

六、WOE转换

证据权重(Weight of Evidence,WOE)转换可以将Logistic回归模型转变为标准评分卡格式。引入WOE转换的目的并不是为了提高模型质量,只是一些变量不应该被纳入模型,这或者是因为它们不能增加模型值,或者是因为与其模型相关系数有关的误差较大,其实建立标准信用评分卡也可以不采用WOE转换。这种情况下,Logistic回归模型需要处理更大数量的自变量。尽管这样会增加建模程序的复杂性,但最终得到的评分卡都是一样的。

用WOE(x)替换变量x。WOE()=ln[(违约/总违约)/(正常/总正常)]。

通过上述的Logistic回归,剔除x1,x4,x6三个变量,对剩下的变量进行WOE转换。

 

1、进行分箱

age变量(x2):

[html]  view plain  copy
  1. <pre name="code" class="plain">   cutx2c(-Inf,30,35,40,45,50,55,60,65,75,Inf)  
  2.    plot(cut(train$x2,cutx2))  

 
 

[html]  view plain  copy
  1. <pre name="code" class="plain">NumberOfTime30-59DaysPastDueNotWorse变量(x3):  
  2.    cutx3 = c(-Inf,0,1,3,5,Inf)  
  3.    plot(cut(train$x3,cutx3))  

 
 

[html]  view plain  copy
  1. <pre name="code" class="plain">MonthlyIncome变量(x5):  
  2.    cutx5 = c(-Inf,1000,2000,3000,4000,5000,6000,7500,9500,12000,Inf)  
  3.    plot(cut(train$x5,cutx5))  

 

[plain]  view plain  copy
  1. NumberOfTimes90DaysLate变量(x7):  
  2.    cutx7 = c(-Inf,0,1,3,5,10,Inf)  
  3.    plot(cut(train$x7,cutx7))  

[html]  view plain  copy
  1. </pre><p></p><p align="center"></p><p><img src="https://img-blog.csdn.net/20160527101619312" alt="" /></p><p></p><pre name="code" class="html"><pre name="code" class="plain">NumberRealEstateLoansOrLines变量(x8):  
  2.    cutx8c(-Inf,0,1,2,3,5,Inf)  
  3.    plot(cut(train$x8,cutx8))  

 


[html]  view plain  copy
  1. <pre name="code" class="plain">NumberOfTime60-89DaysPastDueNotWorse变量(x9):  
  2.    cutx9 = c(-Inf,0,1,3,5,Inf)  
  3.    plot(cut(train$x9,cutx9))  
 

[html]  view plain  copy
  1. <pre name="code" class="plain">NumberOfDependents变量(x10):  
  2.    cutx10 = c(-Inf,0,1,2,3,5,Inf)  
  3.    plot(cut(train$x10,cutx10))  
 


2、计算WOE值

计算WOE的函数

[html]  view plain  copy
  1. <pre name="code" class="plain">   totalgood = as.numeric(table(train$y))[1]  
  2.    totalbad = as.numeric(table(train$y))[2]  
  3.    getWOE <- function(a,p,q)  
  4.    {  
  5.       Good <- as.numeric(table(train$y[a > p & a <= q]))[1]  
  6.       Bad <- as.numeric(table(train$y[a > p & a <= q]))[2]  
  7.       WOE <- log((Bad/totalbad)/(Good/totalgood),base = exp(1))  
  8.       return(WOE)  
  9.   }  
 

比如age变量(x2)

[html]  view plain  copy
  1. <pre name="code" class="plain">   Agelessthan30.WOE=getWOE(train$x2,-Inf,30)  
  2.    Age30to35.WOE=getWOE(train$x2,30,35)  
  3.    Age35to40.WOE=getWOE(train$x2,35,40)  
  4.    Age40to45.WOE=getWOE(train$x2,40,45)  
  5.    Age45to50.WOE=getWOE(train$x2,45,50)  
  6.    Age50to55.WOE=getWOE(train$x2,50,55)  
  7.    Age55to60.WOE=getWOE(train$x2,55,60)  
  8.    Age60to65.WOE=getWOE(train$x2,60,65)  
  9.    Age65to75.WOE=getWOE(train$x2,65,75)  
  10.    Agemorethan.WOE=getWOE(train$x2,75,Inf)  
  11.    age.WOE=c(Agelessthan30.WOE,Age30to35.WOE,Age35to40.WOE,Age40to45.WOE,Age45to50.WOE,  
  12.            Age50to55.WOE,Age55to60.WOE,Age60to65.WOE,Age65to75.WOE,Agemorethan.WOE)  
  13.    age.WOE  
  14.   [1]  0.57432879  0.52063157 0.34283924  0.24251193  0.22039521  
  15.   [6]  0.07194294 -0.25643603 -0.55868003-0.94144504 -1.28914527  
 

3、对变量进行WOE变换

如age变量(x2)

[html]  view plain  copy
  1. <pre name="code" class="plain">    tmp.age <- 0  
  2.     for(i in 1:nrow(train)) {  
  3.       if(train$x2[i] <= 30)  
  4.         tmp.age[i] <- Agelessthan30.WOE  
  5.       else if(train$x2[i] <= 35)  
  6.         tmp.age[i] <- Age30to35.WOE  
  7.       else if(train$x2[i] <= 40)  
  8.         tmp.age[i] <- Age35to40.WOE  
  9.       else if(train$x2[i] <= 45)  
  10.         tmp.age[i] <- Age40to45.WOE  
  11.       else if(train$x2[i] <= 50)  
  12.         tmp.age[i] <- Age45to50.WOE  
  13.       else if(train$x2[i] <= 55)  
  14.         tmp.age[i] <- Age50to55.WOE  
  15.       else if(train$x2[i] <= 60)  
  16.         tmp.age[i] <- Age55to60.WOE  
  17.       else if(train$x2[i] <= 65)  
  18.         tmp.age[i] <- Age60to65.WOE  
  19.       else if(train$x2[i] <= 75)  
  20.         tmp.age[i] <- Age65to75.WOE  
  21.       else  
  22.         tmp.age[i] <- Agemorethan.WOE  
  23.     }  
  24.       
  25.     table(tmp.age)  
  26.  tmp.age  
  27.    -1.2891452711972 -0.941445039519045-0.558680027962495   
  28.                5063               9196               8180   
  29.  -0.256436029353835 0.0719429392949312  0.220395209955515   
  30.                8472               9009               9465   
  31.   0.242511934081286  0.342839240194068   0.52063156705216   
  32.                8008               6784               5390   
  33.   0.574328792863984   
  34.                5298  
  35.     tmp.age[1:10]  
  36.   [1]0.34283924 0.57432879 0.34283924 0.57432879 0.07194294 0.22039521  
  37.   [7] 0.07194294 0.24251193 0.342839240.52063157  
  38.     train$x2[1:10]  
  39.   [1] 38 30 3930 51 46 53 43 39 32  
 

4、WOE DataFrame构建:

[plain]  view plain  copy
  1. trainWOE = cbind.data.frame(tmp.age,tmp.NumberOfTime30.59DaysPastDueNotWorse,tmp.MonthlyIncome,tmp.NumberOfTime60.89DaysPastDueNotWorse,  
  2.                             tmp.NumberOfTimes90DaysLate,tmp.NumberRealEstateLoansOrLines,tmp.NumberOfDependents)  

七、评分卡的创建和实施

标准评分卡采用的格式是评分卡中的每一个变量都遵循一系列IF-THEN法则,变量的值决定了该变量所分配的分值,总分就是各变量分值的和。

知道线性表达式的两个参数A,B后就可以求每条记录(申请人)的分值。为了求得A,B,需要设定两个假设(分数的给定,很主观),求得A=521.8622;B=-28.8539.

                        i.             odds=1/15时,score=600分    比率为1/15时,分值为600

                      ii.             odds=2/15,score=620分      比率翻一倍时,分值增加20分

计算出基础分接近600,而训练集的好坏比约为14,合理。

 

1、对各变量进行打分

比如age变量(x2)

[html]  view plain  copy
  1. <pre name="code" class="plain">    Agelessthan30.SCORE=p*as.numeric(coe[2])*Agelessthan30.WOE  
  2.     Age30to35.SCORE = p*as.numeric(coe[2])*Age30to35.WOE  
  3.     Age35to40.SCORE = p*as.numeric(coe[2])*Age35to40.WOE  
  4.     Age40to45.SCORE = p*as.numeric(coe[2])*Age40to45.WOE  
  5.     Age45to50.SCORE = p*as.numeric(coe[2])*Age45to50.WOE  
  6.     Age50to55.SCORE = p*as.numeric(coe[2])*Age50to55.WOE  
  7.     Age55to60.SCORE = p*as.numeric(coe[2])*Age55to60.WOE  
  8.     Age60to65.SCORE = p*as.numeric(coe[2])*Age60to65.WOE  
  9.     Age65to75.SCORE = p*as.numeric(coe[2])*Age65to75.WOE  
  10.     Agemorethan.SCORE=p*as.numeric(coe[2])*Agemorethan.WOE  
  11.     Age.SCORE =c(Age30to35.SCORE,Age35to40.SCORE,Age40to45.SCORE,Age45to50.SCORE,Age50to55.SCORE,Age55to60.SCORE,Age60to65.SCORE,Age65to75.SCORE,Agemorethan.SCORE)  
  12.     Age.SCORE  
  13.  [1]  10.498828  6.913546   4.890389   4.444393  1.450770  -5.171176  
  14.  [7] -11.266096 -18.984767 -25.996338  

 

2、构造计算分值函数:

[html]  view plain  copy
  1. <pre name="code" class="plain">   getscore<-function(i,x){  
  2.    score = round(p*as.numeric(coe[i])*x,0)  
  3.    return(score)  
  4.    }  

 
[html]  view plain  copy
  1. 计算各变量分箱得分:age变量(x2)  
[html]  view plain  copy
  1. <pre name="code" class="plain">    Agelessthan30.SCORE=getscore(2,Agelessthan30.WOE)  
  2.     Age30to35.SCORE = getscore(2,Age30to35.WOE)  
  3.     Age35to40.SCORE = getscore(2,Age35to40.WOE)  
  4.     Age40to45.SCORE = getscore(2,Age40to45.WOE)  
  5.     Age45to50.SCORE = getscore(2,Age45to50.WOE)  
  6.     Age50to55.SCORE = getscore(2,Age50to55.WOE)  
  7.     Age55to60.SCORE = getscore(2,Age55to60.WOE)  
  8.     Age60to65.SCORE = getscore(2,Age60to65.WOE)  
  9.     Age65to75.SCORE = getscore(2,Age65to75.WOE)  
  10.     Agemorethan.SCORE = getscore(2,Agemorethan.WOE)  
  11.     Age.SCORE = c(Agelessthan30.SCORE,Age30to35.SCORE,Age35to40.SCORE,Age40to45.SCORE,  
  12.                   Age45to50.SCORE,Age50to55.SCORE,Age55to60.SCORE,Age60to65.SCORE,Age65to75.SCORE,Agemorethan.SCORE)  
  13.     Age.SCORE  
  14.  [1]  12 10   7   5  4   1  -5 -11 -19 -26  

 

NumberOfTime30-59DaysPastDueNotWorse变量(x3)

[html]  view plain  copy
  1. [1] -10  18 34  47  50  

MonthlyIncome变量(x5)

[html]  view plain  copy
  1. [1] -25  10  7   8   5  3   0   0  -9-10  

NumberOfTimes90DaysLate变量(x7)

[html]  view plain  copy
  1. [1] -5 27 38 47 48 33  

NumberRealEstateLoansOrLine变量(x8)

[html]  view plain  copy
  1. [1]  4 -5 -3 1  8 21  

NumberOfTime60-89DaysPastDueNotWorse变量(x9)

[html]  view plain  copy
  1. [1] -5 32 48 62 60  

NumberOfDependents变量(x10)

[html]  view plain  copy
  1. [1] -2 1  2  3 4  8  

3、最终生成的评分卡如下:

 

评分卡

X2

12

10

7

5

4

1

-5

-11

-19

-26

X3

-10

18

34

47

50

 

 

 

 

 

X5

-25

10

7

8

6

3

0

0

-9

-10

X7

-5

27

38

47

48

33

 

 

 

 

X8

4

-5

-3

1

8

21

 

 

 

 

X9

-5

32

48

62

60

 

 

 

 

 

X10

-2

1

2

3

4

8

 

 

 

 


http://blog.csdn.net/csqazwsxedc/article/details/51225156?hmsr=toutiao.io

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值