在对文本分析的过程中,分词与统计词频是最基本的操作,下面我就来分享下
首先对文本进行导入,而后进行jieba库的分词操作
import jieba
file=open('./1.txt','r',encoding='utf-8')
txt=file.read()
words=jieba.lcut(txt)
file.close()
注意文件分词之后,需要close文件
分词结束后,对分词进行存储并筛选,代码如下:
import pandas as pd
#import openpyxl
words_dict={} #存储词及词出现的次数
for word in words:
if len(word)==1:#构不成词,跳过
continue
else:
if word in words_dict:
words_dict[word]+=1 #如果词在字典中存在,累加
else:
words_dict[word]=1 #首次出现
words_dict_sort=sorted(words_dict.items(),key=lambda x:x[1],reverse=True)
#print(words_dict_sort)
stop_word=[]
for word in stop_word:
if word in words_dict:
del words_dict[word]
words_dict_sort=sorted(words_dict.items(),key=lambda x:x[1],reverse=True)
print(words_dict_sort)
df=pd.DataF