自然语言处理导论与Python实践(一)词汇分析

本文是自然语言处理导论的Python实践系列第一篇,主要讲解词汇分析中的中文分词,包括最大匹配法和基于线性链条件随机场的方法。通过实例介绍了这两种方法的原理和Python实现。
摘要由CSDN通过智能技术生成

一、前言

  通过复现对应的算法也能够加深对算法的理解。本系列将根据《自然语言处理导论》书中的脉络复现对应的算法,也是非常适合小白入门学习,我们大家一起学习,如有错误的地方欢迎在评论区指正。此外,本系列教程将从书中开始有算法的地方进行介绍,略过了一些理论部分,包括自然语言处理的基本概念、处理范式;等前置基础知识,大家可以通过阅读《自然语言处理导论》来跟上本教程的节奏。

二、词汇分析

  本系列为自然语言处理导论与Python实践系列的第一篇,主要对词汇分析进行介绍,一些语言方面的基础知识(词性、词语规范化)需要大家自行阅读《自然语言处理导论》第二章。词汇分析主要包含分词与词性标注两部分,分词部分将以中文分词为例进行介绍。

2.1 中文分词

  中文分词(Chinese Word Segmentation,CWS)是指将连续字序列转换为对应的词序列的过程,也 可以看做在输入的序列中添加空格或其他边界标记的过程。中文分词任务可以形式化表示为:给定中文句子 c1,c2,⋅⋅⋅,cn,c1,c2,⋅⋅⋅,cn, 其中 cici 为单个字符,输出词序列 w1,w2,⋅⋅⋅,wm,w1,w2,⋅⋅⋅,wm, 其中 wjwj 是中文单词。

  例如:

            复旦大学是中国人自主创办的第一所高等院校。 

            分词结果:复旦大学 | 是 | 中国人 | 自主 | 创办 | 的 | 第一 |
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能_SYBH

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值