python结巴分词去掉虚词_结巴分词获取关键词时怎么过滤掉一些停用词?

一、中文文本处理流程:

1去除非中文字符

2.去除停用词(注意:现在网上有一些公开的停用词库,例如哈工大停用词表、四川大学机器智能实验室停用词库等 )

3.分词与词性标记(后面可以根据词性,指定去掉副词,名词,形容词等)

二、示例代码:

#运用jieba进行分词和词性标注

words_lst=pseg.cut(chinese_only)

#去除停用词 存储分词后结果

words=[]

for word,flag inwords_lst:

if word not in stop_words and flag in ['v' ,'n']:

words.append(word)

proc_text=''.join(words)

本人长期关注AI算法与最新应用,NLP/CNN/LSTM/TRANSFORMER/BERT

欢迎关注本人主页《AI工匠Book》,共同探讨AI

NLP更多实战案例代码:https://blog.csdn.net/weixin_37479258/article/details/99349203​blog.csdn.net

————————————————

CSDN博主「AI工匠book」的原创文章,遵循CC 4.0 by-sa版权协议

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值