Weka中的Evaluation类源代码分析

使用的数据是最简单的weather.nominal.arff,使用的分类模型是NaiveBayes

1.在构造函数中进行了如下操作:

m_ClassPriors[numClasses]统计构造函数传入的data的各个类的先验概率,有一个平滑处理,在统计之前每个m_ClassPriors[i]都赋值为1,防止出现某个类先验概率为0的情况出现。

m_MarginCounts = new double[500 + 1]

2.在crossValidateModel函数中进行了如下操作:

首先是随机打乱数据,并且如果类是标称型的就要进行分层操作(类似分层抽样):

data.randomize(random);
if (data.classAttribute().isNominal()) {
      data.stratify(numFolds);
}

下面这个函数的主体:

for (int i = 0; i < numFolds; i++) {
      Instances train = data.trainCV(numFolds, i, random);
      setPriors(train);//这里的设置的先验概率会覆盖前面构造函数中的设置
      Classifier copiedClassifier = AbstractClassifier.makeCopy(classifier);
      copiedClassifier.buildClassifier(train);
      Instances test = data.testCV(numFolds, i);
      evaluateModel(copiedClassifier, test, forPredictionsPrinting);
}
m_NumFolds = numFolds;

3.evaluateModel函数进行了如下操作:

 double predictions[] = new double[data.numInstances()];
 for (int i = 0; i < data.numInstances(); i++) {
        predictions[i] =
          evaluateModelOnceAndRecordPrediction(classifier, data.instance(i));
 }
 return predictions;//返回所有测试实例的预测的最大概率的类标记

4.进入evaluateModelOnceAndRecordPrediction函数再直接进入evaluationForSingleInstance函数

    Instance classMissing = (Instance) instance.copy();
    classMissing.setDataset(instance.dataset());   
    classMissing.setClassMissing();//把类标记抹去
    double pred =
      evaluationForSingleInstance(
        classifier.distributionForInstance(classMissing), instance,
        storePredictions);//见5.
    return pred;

5.进入evaluationForSingleInstance

      updateStatsForClassifier(dist, instance);//见6.
      if (storePredictions && !m_DiscardPredictions) {
        if (m_Predictions == null) {
          m_Predictions = new ArrayList<Prediction>();
        }
        m_Predictions.add(new NominalPrediction(instance.classValue(), dist,
          instance.weight()));
      }//m_Predictions中每一项放置一个测试实例的预测类的概率分布

6.进入updateStatsForClassifier

    int actualClass = (int) instance.classValue();
    if (!instance.classIsMissing()) {
      updateMargins(predictedDistribution, actualClass, instance.weight());//见7.
      int predictedClass = -1;
      double bestProb = 0.0;
      for (int i = 0; i < m_NumClasses; i++) {
        if (predictedDistribution[i] > bestProb) {
          predictedClass = i;
          bestProb = predictedDistribution[i];
        }
      }

7.进入updateMargins

    double probActual = predictedDistribution[actualClass];
    double probNext = 0;
    for (int i = 0; i < m_NumClasses; i++) {
      if ((i != actualClass) && (predictedDistribution[i] > probNext)) {
        probNext = predictedDistribution[i];
      }
    }//proNext就是除了真实类别外概率最大的类的概率
    double margin = probActual - probNext;
    int bin = (int) ((margin + 1.0) / 2.0 * k_MarginResolution);
    m_MarginCounts[bin] += weight;

8.predictions函数的返回值

ArrayList<Prediction> m_Predictions存放的是所有测试实例的预测信息,包括真实类标记,预测的类的概率分布,权重等。
是在evaluationForSingleInstance函数中更新的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值