192. 统计词频

写一个 bash 脚本以统计一个文本文件 words.txt 中每个单词出现的频率。

为了简单起见,你可以假设:

  • words.txt只包括小写字母和 ' ' 。
  • 每个单词只由小写字母组成。
  • 单词间由一个或多个空格字符分隔。

示例:

假设 words.txt 内容如下:

the day is sunny the the
the sunny is is

你的脚本应当输出(以词频降序排列):

the 4
is 3
sunny 2
day 1

说明:

  • 不要担心词频相同的单词的排序问题,每个单词出现的频率都是唯一的。
  • 你可以使用一行 Unix pipes 实现吗?

解析:

1、sort语法复习 
      sort -n 将字符串转数字 
      sort -r 指定顺序为从大到小 
      sort -k 2 指定第二个字段作为排序判断标准

  tr -s ' ' '\n' 是将所有连续的空格 空行删除并保证每一行只有一个字符串 
  sort | uniq -c 通常一起用来统计重复出现的次数。

cat words.txt | tr -s ' ' '\n' | sort | uniq -c | sort -rn | awk '{print $2, $1}'

2、 awk 是逐行检索文本。分为3的部分。 
BEGIN{#这里进行一些检索文本前的初始化操作} 
{#这里是对应每一行的操作}

例如这里 for(i=1;i<=NF;++i){++m[$i]}就是将每一行分隔的字段,进行词频统计。 
NF是分隔的字段数。 
$0表示整行字符串 
$1到$NF表示从分隔的第一个字符串到最后一个字符串 
awk中的数组可以用作hashtable做来词频统计。 
END{#在检索文本后的操作} 
for(k in m) k表示的就是m的key。

awk -F' ' '{for(i=1;i<=NF;i=i+1){print $i}}' words.txt|sort|uniq -c|sort -nr|awk -F ' ' '{printf("%s %s\n", $2, $1)}'

 

你好,关于你的问题: 1. 分词 2. 提取10个关键词 3. 统计词频(格式:{关键词:频率}),写入文件中存储 4. 统计词性频率(格式:{词性:频率}),写入文件中存储操作 可以使用 Python 中的 jieba 库进行文本分词、关键词提取和词频统计。而使用 nltk 库则可以进行词性标注和词性频率统计。 具体实现代码可以参考下面示例: ``` import jieba import jieba.analyse import nltk # 读取文本文件 with open('hongloumeng.txt', 'r', encoding='utf-8') as f: content = f.read() # 分词 seg_list = jieba.cut(content) # 提取关键词并写入文件 with open('keywords.txt', 'w', encoding='utf-8') as f: for keyword, weight in jieba.analyse.extract_tags(content, topK=10, withWeight=True): f.write('%s %s\n' % (keyword, weight)) # 统计词频并写入文件 word_counts = {} for word in seg_list: if len(word) > 1 and word != '\r\n': word_counts[word] = word_counts.get(word, 0) + 1 with open('word_freq.txt', 'w', encoding='utf-8') as f: for word, freq in word_counts.items(): f.write('%s %d\n' % (word, freq)) # 进行词性标注和词性频率统计 tags = nltk.pos_tag(list(jieba.cut(content))) tag_counts = {} for tag in tags: tag_counts[tag[1]] = tag_counts.get(tag[1], 0) + 1 with open('tag_freq.txt', 'w', encoding='utf-8') as f: for tag, freq in tag_counts.items(): f.write('%s %d\n' % (tag, freq)) ``` 注意:以上示例代码不考虑多线程处理和分布式存储等场景,在实际应用中需要根据具体情况进行优化。另外,对于大型文本文件,可以考虑使用分块读取、分布式计算等方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值