【python】用python和mecab实现对日语试卷进行词频统计

前言

网上有很多对英文和中文进行词频统计的程序,其中,英语用空格和标点进行分词,比如这篇

https://www.cnblogs.com/coskaka/articles/5965091.html

用程序表达如下:

还有用jieba库进行中文和英文分词分词,如:https://blog.csdn.net/tanlangqie/article/details/80493888

对于日语分词,网上内容很少。正好自己也在学日语。所以想做个统计日语试卷词频的程序。

工具介绍

python3.6:这个就不用过多介绍了。主要说下开发环境,自己是在Ubuntu系统上写的程序。

mecab: 一款日语的分词器。类似于jieba。详细介绍请看下面链接:

介绍和使用:http://www.52nlp.cn/%E6%97%A5%E6%96%87%E5%88%86%E8%AF%8D%E5%99%A8-mecab-%E6%96%87%E6%A1%A3

这篇链接的文章写的很详细,包含安装和使用。

我自己安装是用这个命令就行了。sudo apt-get install mecab libmecab-dev mecab-ipadic-utf8

hello world版本:

安装完后需要自己用个简易程序验证一下环境是否好用,输入mecab,回车会进入命令行模式,再输入日语文本就出现分词解析了。

或者用下面的程序验证:

import MeCab

mecab = MeCab.Tagger ("-Ochasen")

print(mecab.parse("MeCabを用いて文章を分割してみます。"))

开始统计

创建被统计文本,我是把试卷的文本直接粘贴到txt里面的,如图,test.txt就是下面程序要读取的待统计文本。

上程序

写的有点粗糙,日语中的很多语气词还没有添加到过滤词中,还需要优化。

#author:wangzhensuo
#weixin: 814565668
import time
from mecabwrap import do_mecab
key_list=[]

del_str = '''( )_・)(★」「.1234567890、。がガがガぎギぐグげゲごゴざザざザじジずズぜゼぞゾだダだダぢヂづヅでデどドばバばバびビぶブべベぼボぱパぱパぴピぷプぺペぽポ
あアあアいイうウえエおオかカかカきキくクけケこコさサさサしシすスせセそソたタたタちチつツてテとトなナなナにニぬヌねネのノはハ
はハひヒふフへヘほホまマまマみミむムめメもモやヤやヤゆユよヨらラらラりリるルれレろロわワわワをヲ'''

def words_list():
    file_in = open('test.txt')
    f_line = file_in.read()
    all_lines = do_mecab(f_line, '-Owakati')
#    print(f_line)
 #   print('-------------------------------')
#    print(all_lines)

    return all_lines.split()

word_dict = {}
my_list = words_list()
for item in my_list:
    if item in del_str:
        continue
    if item not in word_dict:
        word_dict[item] = 1
    else:
        word_dict[item] =word_dict[item]+1
#print(word_dict)
#order_list = list(word_dict.values())
#order_list.sort(reverse=True)
#print(order_list)
d_order=sorted(word_dict.items(),key=lambda x:x[1],reverse=True)

#print(d_order)

print("单词总数:",len(d_order))
cnt = 0
for word,fre in d_order:
    cnt+=1
    print(fre//2*'#',word,fre)
ll=""
for word,fre  in d_order:
#    print(word)
    ll+=word+'  '
#print(ll)

运行效果如下:

安装或者使用有问题,请联系微信:milestoners  。互相学习,进步。
 

 

  • 4
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 为了进行日语文本词频分析,您可以使用Python编写脚本。以下是一个简单的例子: ``` # 导入必要的库 import MeCab import re # 使用MeCab对日语文本进行分词 def tokenize(text): tagger = MeCab.Tagger("-Owakati") return tagger.parse(text).strip().split(" ") # 对文本进行词频统计 def count_frequency(tokens): frequency = {} for token in tokens: if token in frequency: frequency[token] += 1 else: frequency[token] = 1 return frequency # 读取文本并进行词频分析 def analyze(text): # 去除文本中的标点符号 text = re.sub(r'[^\w\s]', '', text) # 对文本进行分词 tokens = tokenize(text) # 统计词频 frequency = count_frequency(tokens) # 按词频从高到低排序 sorted_frequency = sorted(frequency.items(), key=lambda x: x[1], reverse=True) return sorted_frequency # 测试 text = "日本語の文章を分析するには、Pythonを使ってスクリプトを書くことができます。" print(analyze(text)) ``` 这段代码使用了 MeCab 库对日语文本进行分词,并使用字典统计词频。最后,统计结果按词频从高到低排序。 ### 回答2: 日语文本词频分析脚本的编写可以通过以下步骤完成: 1. 导入库:首先,在Python中,我们需要导入一些必要的库,例如`jieba`库用于中文分词,`collections`库用于统计词频。 ```python import jieba from collections import Counter ``` 2. 文本预处理:如果文本中包含日语标点符号或特殊字符,可以使用正则表达式或其他方法进行清洗。 ```python def preprocess_text(text): # 进行文本清洗的操作 cleaned_text = text.replace('标点符号', '') return cleaned_text ``` 3. 分词:使用`jieba`库对文本进行分词。 ```python def tokenize_text(text): # 使用jieba库进行分词 tokens = jieba.cut(text) return tokens ``` 4. 统计词频:使用`collections`库的`Counter`函数对分词后的文本进行词频统计。 ```python def count_word_frequency(tokens): # 使用Counter函数统计词频 word_frequency = Counter(tokens) return word_frequency ``` 5. 输出词频结果:将词频结果按照频率降序进行排序,并输出。 ```python def output_word_frequency(word_frequency): # 按照频率降序排序 sorted_word_frequency = sorted(word_frequency.items(), key=lambda x: x[1], reverse=True) for word, frequency in sorted_word_frequency: print(word, frequency) ``` 6. 主函数:调用以上函数完成整个分析过程。 ```python def main(): # 读取文本文件 with open('input.txt', 'r', encoding='utf-8') as file: text = file.read() # 预处理文本 cleaned_text = preprocess_text(text) # 分词 tokens = tokenize_text(cleaned_text) # 统计词频 word_frequency = count_word_frequency(tokens) # 输出结果 output_word_frequency(word_frequency) if __name__ == '__main__': main() ``` 以上就是一个简单的日语文本词频分析脚本的编写过程,你可以将你要分析的日语文本保存为`input.txt`文件,并通过运行以上代码来获取词频结果。请注意,以上代码仅给出了一个基本的示例,可以根据实际需求进行修改和优化。 ### 回答3: 编写一个日语文本词频分析脚本可以使用Python的nltk库来实现。以下是一个简单的代码示例: ```python import nltk from nltk.corpus import stopwords from collections import Counter # 加载停用词 stop_words = set(stopwords.words('japanese')) # 读取文本 with open('japanese_text.txt', 'r', encoding='utf-8') as file: text = file.read() # 分词 tokens = nltk.word_tokenize(text) # 去除停用词和标点符号 words = [word for word in tokens if word.isalnum() and word not in stop_words] # 统计词频 word_freq = Counter(words) # 输出前10个高频词 for word, freq in word_freq.most_common(10): print(word, freq) ``` 注意,以上示例中的代码需要借助nltk库,因此在运行代码之前需要先安装该库。另外,停用词也可以自己根据需求进行添加和修改。然后将需要分析的日语文本保存为`japanese_text.txt`,并确保该文件与Python脚本在同一目录下。最终,脚本会输出出现频率最高的前10个词及其出现次数。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值