中文分词模型-pkuseg-jieba-thulac对比

2020年6月更新
同学推荐中文效果还不错,暂时没有实验,收入收藏夹
fastHan: 基于BERT的中文NLP集成工具

综合结果,三个模型,jieba更适用于本人当前的应用环境,运行时间更迅速。

还有的更多内容,请看here
pkuseg官网的预训练模型下载
因为pkuseg的准确性比jieba高了很多,本计划使用,但是实验过后,pkuseg不太满足自己的需求,而且速度比较慢,还是选择jieba。
在这里插入图片描述

import pkuseg
import os
s = "无时无刻巴赫"
import os
import time
st = time.time()
path ="C:\\Users\\1\\.pkuseg\\"# 下载的模型全部放在了这个目录
files =os.listdir(path)
files.sort()
for file_ in files:
    f_name = str(file_)
    if os.path.isdir(path +file_) and f_name != "postag":
        seg = pkuseg.pkuseg(model_name=path+file_,postag=True)
        text = seg.cut(s)
        print(f_name,text)
print(time.time() - st)
result
ctb8 [('无时无刻', 'v'), ('巴赫', 'nr')]
medicine [('无时', 'd'), ('无', 'v'), ('刻巴赫', 'a')]
mixed [('无时无刻', 'v'), ('巴赫', 'nr')]
msra [('无时无刻', 'v'), ('巴赫', 'nr')]
news [('无时无刻', 'v'), ('巴赫', 'nr')]
web [('无时无刻巴赫', 'l')]
36.3020761013031
和jieba模型结果对比
import jieba
s = ["李扬来到了移动杭研大厦","北京理工","翅展万丈", '无时无刻巴赫']
for i in s:
    seg = pkuseg.pkuseg(model_name='C:\\Users\\1\\.pkuseg\\msra')
    text = seg.cut(i)
    print("pkuseg-medicine:",text)
    seg_list=jieba.cut(i,cut_all=True)
    print("jieba默认模式: " + "/ ".join(seg_list))  # 默认模式
    seg_list=jieba.cut(i,cut_all=False)
    print("jieba精确模式: " + "/ ".join(seg_list))  # 精确模式
    print('\n')
李扬来到了移动杭研大厦北京理工翅展万丈无时无刻巴赫
pkuseg李扬/ 来到/ 了/ 移动杭研大厦北京/ 理工翅展/ 万丈无时无刻/ 巴赫
jieba-默认李/ 扬/ 来到/ 了/ 移动/ 杭/ 研/ 大厦北京/ 北京理工/ 理工翅/ 展/ 万丈无时/ 无时无刻/ 巴赫
jieba-精确李扬/ 来到/ 了/ 移动/ 杭研/ 大厦北京理工翅展/ 万丈无时无刻/ 巴赫

词性标注

jieba如果标注词性,需要加载另一个包,因此对比了两次。
jieba的词性含义参考

for i in s:
    seg = pkuseg.pkuseg(model_name='C:\\Users\\1\\.pkuseg\\msra',postag = True)
    text = seg.cut(i)
    print("pkuseg-medicine:",text)
    seg = jieba.posseg.cut(i)
    seglist = ""
    for k in seg:
        seglist += k.word + " "+ k.flag + '\t'
    print("jieba", seglist,'\n')
# thulac
import thulac
def get_thulac(text_content):
    thu1 = thulac.thulac(seg_only=False)
    text = thu1.cut(text_content, text=True)
    return text
result
pkuseg
李扬来到了移动杭研大厦李扬nr来到vu移动杭研大厦i
北京理工北京ns理工j
翅展万丈翅展n万丈i
无时无刻巴赫无时无刻v巴赫nr
jieba
李扬来到了移动杭研大厦李扬nr来到vul移动vnjvn大厦n
北京理工北京理工nt
翅展万丈ngv万丈m
无时无刻巴赫无时无刻i巴赫nr
thulac
李扬来到了移动杭研大厦李扬npvvu移动v杭研j大厦n
北京理工北京ns理工n
翅展万丈翅展万丈id
无时无刻巴赫无时无刻id巴赫np

另一组例子

邓紫棋的忘情水
jieba邓紫棋nruj忘情水i
thulac邓紫棋npu忘情水n
我想听邓紫棋唱忘情水
jiebarvv邓紫棋nrv忘情水i
thulacrvvnp紫棋n唱忘v情水n
我想听邓紫棋的忘情水
jiebarvv邓紫棋nruj忘情水i
thulacrvvnp紫棋nu忘情水n
我想听李健的忘情水
jiebarvv李健nruj忘情水i
thulacrvv李健npu忘情水n
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在现有省、市港口信息化系统进行有效整合基础上,借鉴新 一代的感知-传输-应用技术体系,实现对码头、船舶、货物、重 大危险源、危险货物装卸过程、航管航运等管理要素的全面感知、 有效传输和按需定制服务,为行政管理人员和相关单位及人员提 供高效的管理辅助,并为公众提供便捷、实时的水运信息服务。 建立信息整合、交换和共享机制,建立健全信息化管理支撑 体系,以及相关标准规范和安全保障体系;按照“绿色循环低碳” 交通的要求,搭建高效、弹性、高可扩展性的基于虚拟技术的信 息基础设施,支撑信息平台低成本运行,实现电子政务建设和服务模式的转变。 实现以感知港口、感知船舶、感知货物为手段,以港航智能 分析、科学决策、高效服务为目的和核心理念,构建“智慧港口”的发展体系。 结合“智慧港口”相关业务工作特点及信息化现状的实际情况,本项目具体建设目标为: 一张图(即GIS 地理信息服务平台) 在建设岸线、港口、港区、码头、泊位等港口主要基础资源图层上,建设GIS 地理信息服务平台,在此基础上依次接入和叠加规划建设、经营、安全、航管等相关业务应用专题数据,并叠 加动态数据,如 AIS/GPS/移动平台数据,逐步建成航运管理处 "一张图"。系统支持扩展框架,方便未来更多应用资源的逐步整合。 现场执法监管系统 基于港口(航管)执法基地建设规划,依托统一的执法区域 管理和数字化监控平台,通过加强对辖区内的监控,结合移动平 台,形成完整的多维路径和信息追踪,真正做到问题能发现、事态能控制、突发问题能解决。 运行监测和辅助决策系统 对区域港口与航运业务日常所需填报及监测的数据经过科 学归纳及分析,采用统一平台,消除重复的填报数据,进行企业 输入和自动录入,并进行系统智能判断,避免填入错误的数据, 输入的数据经过智能组合,自动生成各业务部门所需的数据报 表,包括字段、格式,都可以根据需要进行定制,同时满足扩展 性需要,当有新的业务监测数据表需要产生时,系统将分析新的 需求,将所需字段融合进入日常监测和决策辅助平台的统一平台中,并生成新的所需业务数据监测及决策表。 综合指挥调度系统 建设以港航应急指挥中心为枢纽,以各级管理部门和经营港 口企业为节点,快速调度、信息共享的通信网络,满足应急处置中所需要的信息采集、指挥调度和过程监控等通信保障任务。 设计思路 根据项目的建设目标和“智慧港口”信息化平台的总体框架、 设计思路、建设内容及保障措施,围绕业务协同、信息共享,充 分考虑各航运(港政)管理处内部管理的需求,平台采用“全面 整合、重点补充、突出共享、逐步完善”策略,加强重点区域或 运输通道交通基础设施、运载装备、运行环境的监测监控,完善 运行协调、应急处置通信手段,促进跨区域、跨部门信息共享和业务协同。 以“统筹协调、综合监管”为目标,以提供综合、动态、实 时、准确、实用的安全畅通和应急数据共享为核心,围绕“保畅通、抓安全、促应急"等实际需求来建设智慧港口信息化平台。 系统充分整合和利用航运管理处现有相关信息资源,以地理 信息技术、网络视频技术、互联网技术、移动通信技术、云计算 技术为支撑,结合航运管理处专网与行业数据交换平台,构建航 运管理处与各部门之间智慧、畅通、安全、高效、绿色低碳的智 慧港口信息化平台。 系统充分考虑航运管理处安全法规及安全职责今后的变化 与发展趋势,应用目前主流的、成熟的应用技术,内联外引,优势互补,使系统建设具备良好的开放性、扩展性、可维护性。
tf-idf词袋模型是一种用于文本处理和分析的技术。它的主要思想是将文本中的每个词汇作为一个特征,通过计算词汇在文档中的重要程度来进行特征提取和表示。它结合了词频(term frequency)和逆文档频率(inverse document frequency)的计算方法。 在tf-idf词袋模型中,词频表示了某个词汇在文档中出现的频率,逆文档频率表示了该词汇在整个文集中的重要程度。通过将词频和逆文档频率相乘,可以得到某个词汇在文档中的tf-idf值。通过对一篇文档中的所有词汇计算tf-idf值,可以得到该文档的特征向量表示。 jieba是一款常用的中文分词工具,可以将中文文本按照词语进行分割。在文本情感分类任务中,jieba可以被用于对文本进行分词预处理,将长句子切分成短语,并去除停用词等。分词后的文本可以作为特征的基础,用于情感分类任务。 文本情感分类是指通过对文本的分析和理解,将其归类为积极、消极或中性等情感类别。在进行情感分类时,可以利用tf-idf词袋模型提取文本的特征向量表示,并将其输入到机器学习模型中进行分类训练。根据文本中的词汇出现情况和tf-idf值,模型可以学习到不同词汇与情感类别之间的关联,从而进行文本情感的分类判断。 综上所述,tf-idf词袋模型jieba在文本分类任务中扮演着重要的角色。它们分别用于提取文本的特征向量表示和中文文本分词预处理,为文本情感分类任务提供了基础。通过结合这两种技术,可以建立有效的文本情感分类模型

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值