R手册(NLP)--jiebaR

R语言词云和中文词典包。

jiebaR: for Chinese text segmentation

jiebaR中文官网

Quick Start

library(jiebaR)
cutter = worker()   #新建分词器
segment( "This is a good day!" , cutter )  #分词
## [1] "This" "is"   "a"    "good" "day"

初始化分词器

1. worker()

worker(type = "mix",    #type指定返回词的结果类型
 dict = DICTPATH,       #dict系统词典路径
 hmm = HMMPATH,
 user = USERPATH,       #user用户词典
 idf = IDFPATH,         #IDF词典,关键词提取使用
 stop_word = STOPPATH,  #stop_word停止词库,默认空值
 qmax = 20, 
 topn = 5,              #topn关键词数
 encoding = "UTF-8",    #输入文件编码
 detect = T, 
 symbol = F,            #是否保留符号
 lines = 1e+05,         #每次读取文件的最大行数,对于大文件,实现分次读取。
 write = T,            #是否将分词结果写入文件
 output = NULL,         #输出路径
 bylines = F))          #按行输出

参数

  • type:指定分词引擎
    mp(最大概率模型)- 基于词典和词频
    hmm(HMM模型)- 基于 HMM 模型,可以发现词典中没有的词
    mix(混合模型)- 先用 mp 分,mp 分完调用 hmm 再来把剩余的可能成词的单字分出来。
    query(索引模型)- mix 基础上,对大于一定长度的词再进行一次切分。
    tag(标记模型)- 词性标记,基于词典的
    keywords(关键词模型)- tf-idf 抽关键词
    simhash(Simhash 模型) - 在关键词的基础上计算 simhash
  • user:用户词典路径
    1.用户词典,包括词、词性标记两列。用户词典中的所有词的词频均为系统词典中的最大词频 (默认,可以通过 user_weight 参数修改)。
    2.可以下载使用搜狗细胞词库,user=cidian::load_user_dict(filePath="词库路径")
  • user_weight:用户词典中的词的词频
    {“max”, “min”, “median”},默认为 “max”,系统词典中的最大值。
  • idf:IDF词典,关键词提取时用
  • stop_word:关键词提取使用的停止词库。分词时也可以使用,但是分词时使用的对应路径不能为默认的 jiebaR::STOPPATH。

2. 更新分词器

cutter=worker() #初始化分词器
cutter$bylines=TRUE #分行输出(接收向量分词后,分解到list中输出)
cutter$symbol = FALSE #重设为不保留符号

3. 添加新词到已存在的分词器中

new_user_word(worker, words, tags = rep("n", length(words))) 

分词

segment(code, jiebar, mod = NULL)

参数:

  • code:中文文档
  • jiebar:分词器
  • mod:指定返回分词的结果类型(mp/hmm/mix/query)

标记

tagging(code, jiebar)分词+标记
vector_tag(string, jiebar)对已经分好的词进行标记

words = "我爱北京天安门"
cutter = worker()
result = segment(words, cutter)

tagger = worker("tag") #标记器
vector_tag(result, tagger)  #对分好的词进行标记
#>        r        v       ns       ns 
#>     "我"     "爱"   "北京" "天安门"

关键词提取:基于系统词典词频

keywords(code, jiebar)提取关键词
vector_keywords(segment, jiebar)

key = worker("keywords", topn = 1)
keywords("我爱北京天安门", key)
#>   8.9954 
#> "天安门"

# 对已经分好词的文本提取关键词
cutter = worker()
result = segment("我爱北京天安门", cutter)
vector_keywords(result, key)
#>   8.9954 
#> "天安门"

Simhash 与距离

simhasher = worker("simhash", topn=2)
simhash("江州市长江大桥参加了长江大桥的通车仪式",  simhasher)
distance("hello world!", "江州市长江大桥参加了长江大桥的通车仪式",  simhasher) #分词+计算距离

vector_simhash(c("今天","天气","真的","十分","不错","的","感觉"), simhasher)
vector_distance(c("今天","天气","真的","十分","不错","的","感觉"),
  c("今天","天气","真的","十分","不错","的","感觉"), simhasher) #计算距离

词频统计

freq(x)x为分词后的结果

cidian: Tools for Chinese Text Segmentation Dictionaries

用来转换搜狗细胞词库
Windows 安装 RTools,设置好对应的环境变量

  • 安装
library(devtools)
install_github("qinwf/cidian")
  • 使用
decode_scel(scel = "细胞词库路径",output = "输出文件路径")
  • 读取词典和编辑词典文件
load_user_dict(filePath = "用户词典路径", default_tag = "默认标记")## 读取用户词典
load_sys_dict(filePath = "系统词典路径")## 读取系统词典

add_user_words(dict = "load_user_dict 读取的词典", words = "UTF-8 编码文本向量", tags = "标记")## 增加用户词典词
add_sys_words(dict = "load_sys_dict 读取的词典", words = "UTF-8 编码文本向量", freq = "词频", tags = "标记")## 增加系统词典词

remove_words(dict = "load_user_dict 或 load_sys_dict 读取的词典", words = "UTF-8 编码文本向量")## 删除词典词
write_dict(dict = "load_user_dict 或 load_sys_dict 读取的词典", output = "输出路径")## 写入

(userd = load_user_dict(jiebaR::USERPATH))
userd = add_user_words(userd, enc2utf8("测试"), "v")
write_dict(userd, jiebaR::USERPATH)

(userd = load_user_dict(jiebaR::USERPATH))
userd = remove_words(userd, enc2utf8(c("测试","蓝翔")))
write_dict(userd, jiebaR::USERPATH)
(userd = load_user_dict(jiebaR::USERPATH))
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 自然语言处理(Natural Language Processing,简称NLP)是计算机科学与人工智能领域的一个重要研究方向,目的是让计算机能够理解、处理和生成人类的自然语言。NLP-100例是一份经典的NLP问题集合,包含了各种与自然语言处理相关的问题和挑战。 这份NLP-100例涵盖了从基础的文本处理到更高级的自然语言理解和生成的问题。例如,其包括了文本预处理、词频统计、语法分析、词性标注、实体识别、情感分析、机器翻译等任务。 NLP-100例的目的是帮助研究者和开发者更好地理解NLP领域的核心问题和技术,同时提供一些典型的案例和数据集供实践和研究使用。通过完成这些例题,可以锻炼自己在NLP领域的能力和技术,提高对自然语言的处理和理解能力。 此外,NLP-100例也为研究者提供了一个可以与其他人交流和探讨的平台。研究者可以使用相同的数据集和问题进行实验和评估,从而更好地了解NLP技术的优劣和进展。 总之,NLP-100例是一个对NLP进行实践和研究的重要资源。通过解决这些例题,可以深入理解自然语言处理的基础和技术,掌握各种NLP任务的方法和技巧。同时,它也是一个促进交流和合作的平台,为NLP研究者提供了一个共同的基础和语言。 ### 回答2: 自然语言处理(Natural Language Processing,简称NLP)是研究计算机与人类自然语言之间的交互的一门学科。NLP-100例指的是日本的一个NLP入门教程,包含了100个常见的NLP问题和对应的解答。 NLP-100例涵盖了从文本处理到语义理解等多个方面的问题。其,一些例子包括:文本的分词、词性标注、句法分析、语义角色标注和文本分类等。 以分词为例,分词是将一段连续的文本分割成词语的过程。在NLP-100例,可以通过使用Python的分词工具NLTK(Natural Language Toolkit)来实现分词功能。 另外,对于文本的词性标注,NLP-100例提供了使用POS(Part-Of-Speech)标记对文本的每个词进行词性标注的方法。可以使用NLTK提供的POS标注工具来实现。 此外,NLP-100例还包括了语义角色标注的问题,语义角色标注是为了确定句子的谓语动词所承担的语义角色,如施事者、受事者、时间等。可以使用Stanford CoreNLP工具包来实现语义角色标注。 最后,NLP-100例还介绍了文本分类的问题,文本分类是将文本划分到预定义的类别。可以使用机器学习算法,如朴素贝叶斯或支持向量机(SVM)等来进行文本分类。 通过学习NLP-100例,我们可以了解到自然语言处理的基本方法和技术,并且可以利用这些技术来解决相关的自然语言处理问题。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值