[我们是这样理解语言的-1]文本分析平台

[我们是这样理解语言的-1]文本分析平台TextMiner

互联网上充斥着大规模、多样化、非结构化的自然语言描述的文本,如何较好的理解这些文本,服务于实际业务系统,如搜索引擎、在线广告、推荐系统、问答系统等, 给我们提出了挑战。例如在效果广告系统中,需要将 Query(User or Page) 和广告 Ad 投影到相同的特征语义空间做精准匹配,如果 Query 是用户,需要基于用户历史数据离线做用户行为分析,如果 Query 是网页,则需要离线或实时做网页语义分析。

matching

文本语义分析(又称文本理解、文本挖掘)技术研究基于词法、语法、语义等信息分析文本,挖掘有价值的信息,帮助人们更好的理解文本的意思,是典型的自然语言处理工作,关键子任务主要有分词、词性标注、命名实体识别、Collection 挖掘、Chunking、句法分析、语义角色标注、文本分类、文本聚类、自动文摘、情感分析、信息抽取等。

nlp (摘自 https://class.coursera.org/nlp/,稍作修改)

在解决文本处理需求过程中,我们发现保证文本分析相关的概念、数据和代码的一致性,避免重复开发是非常关键的,所以设计并搭建一套灵活、可扩展、通用的文本分析底层处理平台,供上层应用模块使用,是非常必要的。

既然是文本分析,我们很自然的想到是否可以使用已有的自然语言处理开源代码呢?为此,我们不妨一起了解下常见的相关开源项目:

  1. Natural Language Toolkit(NLTK),http://www.nltk.org/,In Python,主要支持英文
  2. Stanford CoreNLP,http://www-nlp.stanford.edu/software/index.shtml,In Java,主要支持英文,阿拉伯语,中文,法语,德语
  3. 哈工大-语言技术平台(Language Technolgy Platform,LTP),http://www.ltp-cloud.com/,In C/C++,支持中文
  4. ICTLAS 汉语分词系统,http://ictclas.org/,In C/C++,支持中文

遗憾的是,我们发现尽管这些项目都极具学习和参考价值,和学术界研究结合紧密,但并不容易直接用于实际系统。也许这正源于学术界和工业界面临的问题不同,定位不同。对比如下: 学术界VS工业界

根据我们的实践经验,尝试给出一套文本分析平台设计框架 TextMiner,供大家参考、交流。

设计之初,我们想 TextMiner 应该支持以下主要功能点:

  1. 提供细粒度的中文分词、词性标注和命名实体识别;
  2. 抽取与文本内容语义相关的词或短语;
  3. 获取能够表达文本语义的主题语义;
  4. 获取能够表达文本语义的行业信息;
  5. 提供统一的数据资源管理功能,尤其,要支持同时加载多份不同版本的数据资源,便于进行更新及效果对比。

参考斯坦福大学自然语言处理组开源项目: Stanford CoreNLP 和 哈尔滨工业大学社会计算与信息检索研究中心开源项目: 语言技术平台 (Language Technology Platform,LTP) 设计思想,结合实际业务系统常见需求,TextMiner 系统架构如下图所示:

TextMiner

TextMiner 制定了基于 Google Protocal Buffer (简称 ProtobufThrift 也是不错的选择) 的文本分析处理结果表示方法,集成了一整套自底向上的文本分析基础模块,主要包括:

  1. 分词器 (Segmenter):对纯文本进行切词、词性标注和通用命名实体识别 (如人名、地名、机构名);
  2. Token 抽取 (Token Extractor):构建 Bag Of Words (BOW) 模型,并支持标点符号、停用词、功能词(如连词、代词、助词)等过滤,Token 不考虑词序(词独立)、句法等信息;
  3. Keyword 抽取 (Keyword Extractor):匹配抽取与文本语义相关的词或短语,并识别出专有名词,如书名、产品名、品牌名、游戏名、疾病名等,一定程度上考虑了词序和句法,语义更明确;
  4. Keyword 扩展 (Keyword Expander):对匹配抽取的少量高质量 Keywords 进行语义扩展,获取更多与文本语义相关且未在文本中提及的词条,解决 Vocabulary Gap 问题;
  5. Topic 识别 (LDA):采用 Unsupervised Learning 的方法,对文本进行聚类分析,识别能够表达文本语义的 Topics;
  6. 层次化文本分类 (Classifier):采用 Supervised Learning 方法,在人工构建的大规模层次类别体系基础上,对文本进行类别判断,标识出文本所属的行业语义。

(1 ~ 3) 主要从词和语法角度挖掘文本字面上提及的关键信息,(4 ~ 6) 主要从语义角度发现语义空间可以较好表示文本的关键信息。当然,根据特殊的应用场景,可以扩展更多基础模块,如情感分类。 在此基础上,我们建议基于 TextMiner API 实现并搭建 RPC Server(Protobuf、Thrift 都有很好的支持),提供统一的对外调用服务,这样的话,调用方几乎可以选用任何编程语言,而且不需要在应用模块中加载数据,非常方便。

对于自然语言处理任务,大部分工作都集中在离线数据标注、词典构建和模型训练,然后,在线加载数据资源(主要包括词典和模型),提供 Inference。对于实际业务系统,在算法更新过程中,往往需要通过小流量 A/B Test 实验验证效果正向后,才能完成全量平滑升级,这一点非常重要。所以,这里特别介绍一种可行的设计方案。如下图所示:

text_miner_resourceTextMinerResource 负责数据资源统一管理,调用者需要基于 TextMinerResource 初始化 TextMiner 对象,然后,各功能模块均围绕 Document Message 进行文本分析处理,上层应用模块也只需要从 Document 中获取所需要的字段即可。 TextMiner 和 TextMinerResource 是一对一的关系。但是,TextMiner 平台设计本身支持多份 TextMinerResource 的存在,即多份数据资源的存在,并使用 version_id/resource_name 进行版本标识,这些数据资源由TextMinerResourceContainer 维护,初始化时解析配置文件加载数据,使用者需要指定使用哪个 version 的数据资源(即算法策略)做文本处理。 至此,我们就可以使用 TextMiner 处理文本了。比如,给定文本 “红酒木瓜汤效果怎么样?”,可以得到类似下面的文本分析结果:

TextMiner 示例

[我们是这样理解语言的-1]文本分析平台TextMiner

[我们是这样理解语言的-2]统计语言模型

[我们是这样理解语言的-3]神经网络语言模型

[我们是这样理解语言的-4]说说中文分词

[我们是这样理解语言的-5]命名实体识别

[我们是这样理解语言的-6]关键词抽取

[我们是这样理解语言的-7]关键词扩展

[我们是这样理解语言的-8]主题模型

[我们是这样理解语言的-9]层次文本分类器

[我们是这样理解语言的-10]在线广告系统中的语义分析

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值