(NLP)自然语言处理学习笔记1 NLTK在使用总结


NLTK 有着整套自然语言处理的工具,从分词到实体识别,从情感分类到句法分析,完整而丰富,功能强大。

但是分词功能仅适用于英文,对于中文分词还需要专门的中文分词工具包处理。因此本例使用结巴分词

import pandas as pd
import jieba
df = pd.read_csv('bad_cmmnt_detl.csv')
df.shape

#查看数据集的维度

df.shape

Out[87]:(8813, 2)

利用结巴进行中文分词

 

 

 

def cutword(x):
    seg = jieba.cut(x)
    return ' '.join(seg)

df['cut_word']=df.cntnt.apply(cutword)

 



由分好词的句子生成词典

 

 

 

 

text = df['cut_word'].values
textnltk = []
for sent in text:
    temp = [w for w in sent.split()]
    textnltk.extend(temp)

 


#利用set(txtnltk)可以看到词典的实际单词个数

 

 

 

 


                
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值