NLP-分词、词干化、n-gram

分词

在NLP中,需要将文本进行单词或词组的分割,以便于构建特征。例如,“i am a student”,可以分词为“i”,“am”,“a student”。由于英文的特点,每个单词都有空格,所以比较好分。但是像中文,只有句子与句子之间才有明显的分割,单词和词组之间无法直接分割,所以就需要一定的规则库对中文分词处理。

词干化

词干化就是将不同状态的单词进行简化处理,例如listened转化为listen,目的是减少词汇量,进而减少特征。这个是针对英文而言的,中文没有这方面的需要。

词袋

通过单词出现的频率来构建特征,例如

“i am li,i like zhang”,

“i am a student”,

汇总到一起的词汇表为“i,am,li,like,zhang,a,student”

词汇表一共是7个单词,所以根据单词出现的次数分别构建句子的向量为

“i am li,i like zhang” ---> [2, 1, 1, 1, 1, 0, 0]

“i am a student” ---> [1, 1, 0, 0, 0, 1, 1]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值