本文接 数据挖掘-基于贝叶斯算法及KNN算法的newsgroup18828文档分类器的JAVA实现(上)
(update 2012.12.28 关于本项目下载及运行的常见问题 FAQ见 newsgroup18828文本分类器、文本聚类器、关联分析频繁模式挖掘算法的Java实现工程下载及运行FAQ )
上文中描述了newsgroup18828文档集的预处理及贝叶斯算法的JAVA实现,下面我们来看看如何实现基于KNN算法的newsgroup文本分类器
1 KNN算法的描述
KNN算法描述如下:
STEP ONE:文本向量化表示,由特征词的TF*IDF值计算
STEP TWO:在新文本到达后,根据特征词确定新文本的向量
STEP THREE:在训练文本集中选出与新文本最相似的 K 个文本,相似度用向量夹角余弦度量,计算公式为:
其中,K 值的确定目前没有很好的方法,一般采用先定一个初始值,然后根据实验测试的结果调整 K 值
本项目中K取20
STEP FOUR:在新文本的 K 个邻居中,依次计算每类的权重,每类的权重等于K个邻居中属于该类的训练样本与测试样本的相似度之和。
STEP FIVE:比较类的权重,将文本分到权重最大的那个类别中。
2 文档TF-IDF计算及向量化表示
实现KNN算法首先要实现文档的向量化表示
计算特征词的TF*IDF,每个文档的向量由包含所有特征词的TF*IDF值组成,每一维对应一个特征词
TF及IDF的计算公式如下,分别为特征词的特征项频率和逆文档频率
文档向量计算类 ComputeWordsVector.java如下
package com.pku.yangliu;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.io.FileWriter;
import java.io.IOException;
import java.util.SortedMap;
import java.util.Map;
import java.util.Set;
import java.util.TreeMap;
import java.util.Iterator;
/**计算文档的属性向量,将所有文档向量化
*
*/
public class ComputeWordsVector {
/**计算文档的TF属性向量,直接写成二维数组遍历形式即可,没必要递归
* @param strDir 处理好的newsgroup文件目录的绝对路径
* @param trainSamplePercent 训练样例集占每个类目的比例
* @param indexOfSample 测试样例集的起始的测试样例编号
* @param wordMap 属性词典map
* @throws IOException
*/
public void computeTFMultiIDF(String strDir, double trainSamplePercent, int indexOfSample, Map<String, Double> iDFPerWordMap, Map<String, Double> wordMap) throws IOException{
File fileDir = new File(strDir);
String word;
SortedMap<String,Double> TFPerDocMap = new TreeMap<String,Double>();
//注意可以用两个写文件,一个专门写测试样例,一个专门写训练样例,用sampleType的值来表示
String trainFileDir = "F:/DataMiningSample/docVector/wordTFIDFMapTrainSample"+indexOfSample;
String testFileDir = "F:/DataMiningSample/docVector/wordTFIDFMapTestSample"+indexOfSample;
FileWriter tsTrainWriter = new FileWriter(new File(trainFileDir));
FileWriter tsTestWrtier = new FileWriter(new File(testFileDir));
FileWriter tsWriter = tsTrainWriter;
File[] sampleDir = fileDir.listFiles();
for(int i = 0; i < sampleDir.length; i++){
String cateShortName = sampleDir[i].getName();
System.out.println("compute: " + cateShortName);
File[] sample = sampleDir[i].listFiles();
double testBeginIndex = indexOfSample*(sample.length * (1-trainSamplePercent));//测试样例的起始文件序号
double testEndIndex = (indexOfSample+1)*(sample.length * (1-trainSamplePercent));//测试样例集的结束文件序号
System.out.println("dirName_total length:"+sampleDir[i].getCanonicalPath()+"_"+sample.length);
System.out.println(trainSamplePercent + " length:"+sample.length * trainSamplePercent +" testBeginIndex:"+testBeginIndex+" testEndIndex"+ testEndIndex);
for(int j = 0;j < sample.length; j++){
TFPerDocMap.clear();
FileReader samReader = new FileReader(sample[j]);
BufferedReader samBR = new BufferedReader(samReader);
String fileShortName = sample[j].getName();
Double wordSumPerDoc = 0.0;//计算每篇文档的总词数
while((word = samBR.readLine()) != null){
if(!word.isEmpty() && wordMap.containsKey(word)){//必须是属性词典里面的词,去掉的词不考虑
wordSumPerDoc++;
if(TFPerDocMap.containsKey(word)){
Double count = TFPerDocMap.get(word);
TFPerDocMap.put(word, count + 1);
}
else {
TFPerDocMap.put(word, 1.0);
}
}
}
//遍历一下当前文档的TFmap,除以文档的总词数换成词频,然后将词频乘以词的IDF,得到最终的特征权值,并且输出到文件
//注意测试样例和训练样例写入的文件不同
if(j >= testBeginIndex && j <= testEndIndex){
tsWriter = tsTestWrtier;
}
else{
tsWriter = tsTrainWriter;
}
Double wordWeight;
Set<Map.Entry<String, Double>> tempTF = TFPerDocMap.entrySet(