对cvs文本关键词进行词频统计

#-*-coding:utf-8-*-
import os
import json
data={}
with open('2009_all_keywords.txt','r',encoding='utf-8',errors='ignore') as f:
    txt_read = f.read()
    txt_read= txt_read.strip()
    txt = txt_read.split('\n')
    for row in txt:
        list_row=row.split(' ')
        list_row = [i for i in list_row if(len(str(i))!=0)]
        for word in list_row:
            word=word.strip().strip(';')
            if word in data.keys():
                data[word]=data[word]+1
            else:
                data.update({word:1})
        print('********')
        data_print = sorted(data.items(),key=lambda item:item[1],reverse=True )
        print(data_print)
        #print('********')
data_save=sorted(data.items(),key=lambda item:item[1],reverse=True )
lsobj = json.dumps(data_save)
with open('2009_word_count.txt','w',encoding='utf-8',errors='ignore') as f:
    f.write(lsobj)

作者:WangB

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在处理上市公司年报时,可以使用Python中的jieba库进行关键词提取和词频统计的程序。以下是一个年报样例的处理步骤: 首先,我们需要将年报文本读入程序中。假设该年报的文本保存在一个名为"annual_report.txt"的文本文件中,我们可以使用Python的文件读取功能来读取该文件,将其内容存储在一个字符串变量中。 接下来,需要使用jieba库来进行中文分词。首先,我们需要使用jieba的初始化函数进行分词器的初始化,并加载自定义的词典(如果有)。然后,使用jieba的分词函数来对年报文本进行分词处理。分词结果可以保存在一个列表变量中。 之后,我们可以利用Python的数据结构来进行数据处理和统计。我们可以使用一个字典变量来存储每个关键词词频统计结果。遍历分词结果列表,对每个分词进行判断,如果分词已经在字典中,我们就将对应的词频加1;如果分词不在字典中,我们就在字典中新增该关键词,并将其词频设置为1。 最后,我们可以按照词频进行排序,以便找出出现频率最高的关键词。可以使用Python的排序函数对字典进行排序,按照词频降序排列。然后,根据需要,可以选择前几个关键词进行输出显示。 综上所述,使用Python中的jieba库可以实现上市公司年报的关键词提取和词频统计。这个程序可以帮助我们对年报进行数字化处理,并快速地获取关键信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值