英文分词算法(Porter stemmer)

英文分词算法(Porter stemmer)

主要可以实现单词原型的还原,官网http://tartarus.org/~martin/PorterStemmer/

一些词汇的处理结果:http://snowball.tartarus.org/algorithms/porter/diffs.txt

官方给出的主程序代码:https://tartarus.org/martin/PorterStemmer/python.txt

具体实现代码:

import NLTKWrapper
def getStemming(sentence):
    words = []
    tokens = NLTKWrapper.wordtokenizer(sentence)
    #tokens数组存放已经从句子中分好的词
    #NLTKWrapper是我的另一个python文件
    p = PorterStemmer()
    for token in tokens:
        words.append(p.stem(token, 0, len(token)-1))
    
    return " ".join(words)
    #返回单词原型组成的句子
    
if __name__ == '__main__':
    print getStemming("I am a girl who is good at computer.")


参考:http://blog.csdn.net/whuslei/article/details/7398443

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值