第一个是用c语言做的关于文本的分类,主要是对待分类文本所有单词在模板中概率的后验计算。算法比较简单,从网上下的(没记下地址,若不愿意公开,请留言,自当处理),稍作了一点修改。。,等有时间可以实现垃圾邮件的分类,利用斯坦福机器学习公开课中方法,统计高频词,利用朴素贝叶斯。等有时间和大家分享。
#include <stdio.h>
#include <string.h>
#include <direct.h> //_getcwd(), _chdir()
#include <stdlib.h> //_MAX_PATH, system()
#include <io.h> //_finddata_t, _findfirst(), _findnext(), _findclose()
#include<iostream>
using namespace std;
//#include<fstream>
char vocabulary[1000][20];/*声明公有二维数组,用来存储分割好的单词*/
/*=================将要分类的文本分割成单词存储在二维数组vocabulary中================*/
//@输入参数:要分类的文本
//@输出参数:该文本中总单词数
int SplitToWord(char text[])
{
int i=0;
char seps[]=", .\n"; /*定义单词的分隔符*/
char *substring;
/******利用分隔符将文本内容分割成单词并存储******/
substring=strtok(text,seps);
while(substring!=NULL)
{
strcpy(vocabulary[i],substring);//将单词存储到vocabulary数组中
substring=strtok(NULL,seps);
i++;
}
return i; //返回一共多少个单词
}
/*===============================计算该目录下的文件数================================*/
//@输入参数:无
//@输出参数:该目录下.txt文件数
int CountDirectory()
{
int count=0; //txt文件计数器
long hFile;
_finddata_t fileinfo;
/********查找.txt文件,记录文件数**********/
if ((hFile=_findfirst("*.txt",&fileinfo))!=-1L)
{
do
{
count++;
} while (_findnext(hFile,&fileinfo) == 0);
}
return count;
}
/*===================================计算某类别中∏P(ai|vj)===================================*/
//@输入参数:分类文本中单词数
//@输出参数:该类别下∏P(ai|vj)
float CalculateWordProbability(int wordCount)
{
int countSame; //分类文本中的某单词在所有训练样本中出现次数
int countAll=0; //训练样本中总单词数
char token;
FILE *fp;
float wordProbability=1; //为后面联乘做准备
int i,j;
long hFile;
_finddata_t fileinfo;
for(j=0;j<wordCount;j++) //对于分类样本中的每一个单词
{
countSame=0;
countAll=0;
if((hFile&#