机器学习中随机森林、神经网络和xgboost的分类问题和判断分布的方法

一、

最近在做机器学习分类问题的评价,写了一些代码和评价方法

总的来说,用随机森林和其他分类器做好分类后对混淆矩阵进行处理可以得到rr和kappa系数,此外对于二分类变量,还可以计算出roc曲线和auc面积,在对随机森林的计算中,我得到了以下的代码:

library(randomForest)

library(moments)

library(car)

library("soiltexture")

library(caret)

setwd("d:/Z/test")

A<-matrix(0,30,1)

ALOW<-matrix(0,30,1)

AUP<-matrix(0,30,1)

KAPPA<-matrix(0,30,1)

 

 

trainall=read.csv("classT.csv")

trainall$veget <-as.factor(trainall$veget)

trainall$soilt <-as.factor(trainall$soilt)

trainall$lc <- as.factor(trainall$lc)

trainall$lcc<- as.factor(trainall$lcc)

trainall$geo <- as.factor(trainall$geo)

 

 

 

 

 

 

 

 

for (ttt in 1:30)

{

while(TRUE)

{

while(TRUE)

{

index<- sample(1:nrow(trainall), 449)

train<- trainall[index, ]

testdata<- trainall[-index, ]

train$class<- factor(train$class)

testdata$class<- factor(testdata$class)

if(length(levels(train$class))==10&&length(levels(testdata$class))==10)

break

}

TF=randomForest(class~.,data=train,mtry=5,ntree=1000,importance=T)

pre<-predict(TF,testdata,tpye=prob)

if(length(levels(pre))==10)

break

}

cc<-confusionMatrix(pre,testdata$class)

##cc$overall

a<-matrix(cc$overall)

 

A[ttt]=a[1,1]

KAPPA[ttt]=a[2,1]

ALOW[ttt]=a[3,1]

AUP[ttt]=a[4,1]

 

 

}

a1<-0

a2<-0

a3<-0

a4<-0

for(eee in 1:30)

{

 a1<-a1+A[eee]

 a2<-a2+KAPPA[eee]

 a3<-a3+ALOW[eee]

 a4<-a4+AUP[eee]

 

}

 

 

 

 

RESULT<-matrix(0,4,2)

 </

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值