基于Spark上的中文分词算法的实现

此篇文章只是一份普通的实验报告,同时会对Jcseg中文分词使用进行分享。

实现目的
学习编写Spark程序,对中文文档分词词频的统计分析。

实现原理


实现步骤
(1)Jcseg分词
官方首页:https://code.google.com/p/jcseg/
下载地址:https://code.google.com/p/jcseg/downloads/list
github开源社区http://git.oschina.net/lionsoul/jcseg
    Jcseg是基于mmseg算法的一个轻量级开源中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了最新版本的lucene, solr, elasticsearch的分词接口 随着时代的发展,新词汇的脱颖而出,特别是网络词汇的出现。有些时候就需要更新扩展。但是字典基本词汇都已经有了。当然我们可以自己扩展自己的词汇,只需要仿照下面的文件以lex-*.lex的文件命名就可以,数据格式按照里面的内容。
具体使用方法参考官方文档。
工程项目中导入Jcseg的相关jar包,同时确保lexicon(分词库)文件夹与jar包保持统一目录
分词规则的配置文件,放到指定目录下。确保程序能读取到内容。如图所示:

(2)配置jcseg.properties,具体可以参考官方文档来配置
#是否自动过滤停止词(0关闭, 1开启) jcseg.clearstopword=0
(3)分词代码实现过程
AnaylyzerTools中的anaylyzerWords(String str)方法实现文本分词。
import org.lionsoul.jcseg.ASegment;
import java.io.IOException;
import java.io.StringReader;
import java.util.ArrayList;
import java.util.List;

import org.lionsoul.jcseg.core.ADictionary;
import org.lionsoul.jcseg.core.DictionaryFactory;
import org.lionsoul.jcseg.core.IWord;
import org.lionsoul.jcseg.core.JcsegException;
import org.lionsoul.jcseg.core.JcsegTaskConfig;
import org.lionsoul.jcseg.core.SegmentFactory;

/**
* Created by Administrator on 2016/4/6.
*/
public class AnaylyzerTools {

public static ArrayList<String> anaylyzerWords(String str){
JcsegTaskConfig config =new JcsegTaskConfig(AnaylyzerTools.class.getResource("").getPath()+"jcseg.properties");
ADictionary dic = DictionaryFactory.createDefaultDictionary(config);
ArrayList<String> list=new ArrayList<String>();
ASegment seg=null;
try {
seg = (ASegment) SegmentFactory.createJcseg(JcsegTaskConfig.COMPLEX_MODE, new Object[]{config, dic});
} catch (JcsegException e1) {
e1.printStackTrace();
}
try {
seg.reset(new StringReader(str));
IWord word = null;
while ( (word = seg.next()) != null ) {
list.add(word.getValue());
}
} catch (IOException e) {
e.printStackTrace();
}
return list;
}

public static void main(String[] args) {
String str="HBase中通过row和columns确定的为一个存贮单元称为cell。显示每个元素,每个 cell都保存着同一份数据的多个版本。版本通过时间戳来索引。迎泽区是繁华的地方,营业厅营业";
List<String> list=AnaylyzerTools.anaylyzerWords(str);
for(String word:list){
System.out.println(word);
}
System.out.println(list.size());
}
}

(4)Spark代码实现
import org.apache.spark._
import utils.AnaylyzerTools

/**
* Created by Administrator on 2016/4/6.
*/
object AnalyzerDemo {

//分词排序后取出词频最高的前10个
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("my app").setMaster("local")
val sc = new SparkContext(conf)
val data=sc.textFile("D:\\aaab.txt").map(x => {
val list=AnaylyzerTools.anaylyzerWords(x) //分词处理
list.toString.replace("[", "").replace("]", "").split(",")
}).flatMap(x => x.toList).map(x => (x.trim(),1)).reduceByKey(_+_).top(10)(Ord.reverse).foreach(println)
}

//分词排序
object Ord extends Ordering[(String,Int)]{
def compare(a:(String,Int), b:(String,Int))=a._2 compare (b._2)
}
}
数据文本

运行结果


  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
本套大数据热门技术Spark+机器学习+贝叶斯算法系列课程,历经5年沉淀,调研企业上百家,通过上万学员汇总,保留较为完整的知识体系的同时,让每个模块看起来小而精,碎而不散。在本课程中基于大量案例实战,深度剖析和讲解Spark2.4原理和新特性,且会包含完全从企业真实业务需求中抽取出的案例实战。内容涵盖Spark核心编程、Spark SQL和Spark Streaming、Spark内核以及源码剖析、推荐系统、Kafka消费机制、Spark机器学习、朴素贝叶斯算法、企业级实战案例等。通过理论和实际的紧密结合,可以使学员对大数据Spark技术栈有充分的认识和理解,在项目实战中对Spark和流式处理应用的场景、以及大数据开发有更深刻的认识;并且通过对流处理原理的学习和与批处理架构的对比,可以对大数据处理架构有更全面的了解,为日后成长为架构师打下基础。本套教程可以让学员熟练掌握Spark技术栈,提升自己的职场竞争力,实现更好的升职或者跳槽,或者从J2EE等传统软件开发工程师转型为Spark大数据开发工程师,或是对于正在从事Hadoop大数据开发的朋友可以拓宽自己的技术能力栈,提升自己的价值。Spark应用场景Yahoo将Spark用在Audience Expansion中的应用,进行点击预测和即席查询等。淘宝技术团队使用了Spark来解决多次迭代的机器学习算法、高计算复杂度的算法等。应用于内容推荐、社区发现等。腾讯大数据精准推荐借助Spark快速迭代的优势,实现了在“数据实时采集、算法实时训练、系统实时预测”的全流程实时并行高维算法,最终成功应用于广点通pCTR投放系统上。优酷土豆将Spark应用于视频推荐(图计算)、广告业务,主要实现机器学习、图计算等迭代计算。本套大数据热门技术Spark+机器学习+贝叶斯算法共计13季,本套为第13季。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值