Mahout文本聚类学习之DocumentProcessor类

        做为文本聚类实现的第一步对语料分词是必须的,而documentprocessor类提供了一个基于mapreduce对大量数据集分词的高效灵活的实现。高效是其基于mapreduce分布式计算框架,灵活是其提供了可扩展的分词接口可以对多种语言分词的支持。

  下面就要深入一下类内部的流程进行学习:documentprocessor类,它只提供了一个静态方法tokenizeddocuments();

tokenizeddocuments(path, class<? extends analyzer>, path, configuration);

  参数中设置了输入文件的路径,也就是前一步生成的文档集的序列文件;另一个是继承了lucene analyzer抽象类的一个子类,用于分词功能的扩展;第三个就是分词的输出路径;最后一个就是job的一个configruation对象。

 1 public static void tokenizedocuments(path input,
 2                                        class<? extends analyzer> analyzerclass,
 3                                        path output,
 4                                        configuration baseconf)
 5     throws ioexception, interruptedexception, classnotfoundexception {
 6     configuration conf = new configuration(baseconf);
 7     // this conf parameter needs to be set enable serialisation of conf values
 8     conf.set("io.serializations", "org.apache.hadoop.io.serializer.javaserialization,"
 9                                   + "org.apache.hadoop.io.serializer.writableserialization"); 
10     //对分词的类进行设置,到时会直接实例化分词类的对象
11     conf.set(analyzer_class, analyzerclass.getname());
12     job job = new job(conf);
13     job.setjobname("documentprocessor::documenttokenizer: input-folder: " + input);
14     job.setjarbyclass(documentprocessor.class);
15     //输出键值为text做为文档的唯一标识
16     job.setoutputkeyclass(text.class);
17     //stringtuple对象中有一个list<string>对象,可以理解为分词后将文档存储为词组的序列
18     job.setoutputvalueclass(stringtuple.class);
19     fileinputformat.setinputpaths(job, input);
20     fileoutputformat.setoutputpath(job, output);
21     //sequencefiletokenizermapper是分词核心类
22     job.setmapperclass(sequencefiletokenizermapper.class);
23     job.setinputformatclass(sequencefileinputformat.class);
24     job.setnumreducetasks(0);
25     job.setoutputformatclass(sequencefileoutputformat.class);
26     //运行job前删除已经存在的目录
27     hadooputil.delete(conf, output);
28     //将job提交到hadoop集群并等待其结束 
29     boolean succeeded = job.waitforcompletion(true);
30     if (!succeeded) 
31       throw new illegalstateexception("job failed!");
32 
33   }

下面对seqencefiletokenizermapper进行分析

 1 public class sequencefiletokenizermapper extends mapper<text, text, text, stringtuple> {
 2 
 3   private analyzer analyzer;
 4 
 5   @override
 6   protected void map(text key, text value, context context) throws ioexception, interruptedexception {
 7       //调用分词提供的方法对value也就是文本正文的内容进行分词处理
 8     tokenstream stream = analyzer.reusabletokenstream(key.tostring(), new stringreader(value.tostring()));
 9     chartermattribute termatt = stream.addattribute(chartermattribute.class);
10     stringtuple document = new stringtuple();
11     stream.reset();
12     while (stream.incrementtoken()) {
13       if (termatt.length() > 0) {
14          //把词组加入stringtuple
15         document.add(new string(termatt.buffer(), 0, termatt.length()));
16       }
17     }
18     context.write(key, document);
19   }
20 
21   @override
22   protected void setup(context context) throws ioexception, interruptedexception {
23     super.setup(context);
24     //map任务开始时会从context中取出configuration对象,解析出分词组件的名称并生成对象的实例
25     analyzer = classutils.instantiateas(context.getconfiguration().get(documentprocessor.analyzer_class,
26                                                                        defaultanalyzer.class.getname()),
27                                         analyzer.class);
28   }
29 }

输入输出数据结构总结:输入数据结构sequencefile形式存储的文件键值为<text, text>;输出数据结构为sequencefile形式存储,文件的键值为<text, stringtuple>。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值