Spark+Ansj中文分词Scala程序

Spark下四种中文分词工具使用
hanLP
ansj
jieba
fudannlp

推荐使用ansj,速度快而且效果好
另外jieba,hanLP效果也不错。
具体参考
ansj:https://github.com/NLPchina/ansj_seg
HanLP:https://github.com/hankcs/HanLP

我的代码如下,加了scala连接mysql数据库查找、插入操作,添加自定义词典,添加停用词词典,和Spark RDD实现wordcount的相关知识。

package WordCloud

import java.sql.{
   Connection, DriverManager}
import java.{
   util}

import Mysql.ConvertToJson
import domain.tb_analyze_professional_skill
import org.ansj.library.DicLibrary

import scala.io.Source
import org.ansj.recognition.impl.StopRecognition
import org.ansj.splitWord.analysis.{
   DicAnalysis, ToAnalysis}
import org.apache.spark.sql.SparkSession
import org.apache.spark.SparkConf

/**
  * Created by ljq on 19-2-23.
  */
object WordCloud {
   
  def main(args: Array[String]): Unit = {
   
    val conf = new SparkConf().setAppName("Wordcloud").setMaster("local[4]")
    val spark = SparkSession.builder().config(conf).getOrCreate()
    val jdbcDF = spark.read.format
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值