看《神经侠侣》有感

不是每个人都能成就轰轰烈烈的事业,这个世界上更多的是些默默无闻的小人物,但人不应被平淡的生活磨去棱角,心中的火若是熄灭了,快乐也就失去了。试着回想一下当初的梦想,现在的我是否已把她淡忘,重新迈开脚步,撕碎蒙蔽了双眼的现实,生活仍旧像朝阳一样灿烂。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python中进行神雕侠侣角色名词频统计,通常会涉及到文本处理和数据分析。你可以使用Python的nltk库(自然语言工具包)来分词,然后利用collections库中的Counter类来计算每个名词的出现频率。这里简单概述一下步骤: 1. **下载所需库**:首先确保已安装`nltk`和可能需要的停用词列表,可以使用`nltk.download()`命令。 ```python import nltk from nltk.corpus import stopwords from collections import Counter ``` 2. **读取文本数据**:如果数据是文本文件,可以使用`open()`函数读取。 3. **文本预处理**: a. 分词:使用`nltk.word_tokenize()`将文本分割成单词。 b. 去除停用词:使用停用词列表`stopwords.words('chinese')`去除常见的无意义词汇。 c. 提取名词:使用`nltk.pos_tag()`和`nltk.corpus.wordnet.synsets(word)`判断哪些是名词。 ```python nltk.download('punkt') nltk.download('stopwords') nltk.download('wordnet') def is_noun(tag): return tag.startswith('n') with open('your_text_file.txt', 'r', encoding='utf-8') as file: text = file.read() words = nltk.word_tokenize(text) stop_words = set(stopwords.words('chinese')) filtered_words = [word for word in words if word.isalpha() and not word in stop_words] nouns = [word.lower() for word, tag in nltk.pos_tag(filtered_words) if is_noun(tag)] ``` 4. **统计频率**: 使用`Counter`对名词进行计数。 ```python noun_counts = Counter(nouns) ``` 5. **输出结果**: 可以打印出出现频率最高的名词,或保存到字典或CSV文件中。 ```python most_common = noun_counts.most_common(10) # 获取最常出现的前10个名词及其频率 for word, count in most_common: print(f'{word}: {count}') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值