中文词频统计与词云生成

作业来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822

作业要求:

1. 下载一长篇中文小说。

下载了《粤港澳大湾区发展纲要》

2. 从文件读取待分析文本。

  text=open('artical.txt',encoding='utf-8').read();
   e = ''',,.。??!!-::《》< >"“”、\n \r \u3000 \ufeff'''
   for  in  e:
   text = text.replace(i,"")

3. 安装并使用jieba进行中文分词。

pip install jieba

import jieba

jieba.lcut(text)

 

4. 更新词库,加入所分析对象的专业词汇。

jieba.add_word('天罡北斗阵')  #逐个添加

jieba.load_userdict(word_dict)  #词库文本文件

jieba.add_word('大湾')

参考词库下载地址:https://pinyin.sogou.com/dict/

转换代码:scel_to_text

5. 生成词频统计

 dict={}
  for  in  tokens:
     if  not  in  dict :
         dict [i] = tokens.count(i)
  print ( dict )

6. 排序

word=list(dict.items())
 word.sort(key = lambda  x: x[ 1 ], reverse = True )

7. 排除语法型词汇,代词、冠词、连词等停用词。

stops=['也','等','的','谁','又','是','新','了','只','一','和','或','区','市','为','在','与']
 tokens  =  [token  for  token  in  text  if  token  not  in  stops]

stops

tokens=[token for token in wordsls if token not in stops]

8. 输出词频最大TOP20,把结果存放到文件里

result=[]
 for  in  range ( 20 ):
     result.append(word[i])
 pd.DataFrame(data = result).to_csv( 'f.csv' ,encoding = 'utf-8' )
 print (result)

9. 生成词云。

 

转载于:https://www.cnblogs.com/GMUK/p/10595885.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值