【Python】—— 文本分析

🌟欢迎来到 我的博客 —— 探索技术的无限可能!


🌟博客的简介(文章目录)

相关知识

      当涉及到文本数据处理和可视化的任务时,我们可以通过了解下面的知识和使用Python的一些主要库和工具来完成这些任务。

1. 文本数据处理

      包括读取文本文件、对文本进行分词、去除停用词等基本文本处理步骤。

  • 读取文本文件:
  • 在Python中,我们使用open函数打开文件,指定文件名、打开模式(这里是’r’表示读取)、以及字符编码(通常是’utf-8’)。
with open('filename.txt', 'r', encoding='utf-8') as file:
    text_data = file.read()
  • 分词和去除停用词:
  • 使用Natural Language Toolkit(NLTK)库进行分词和去除停用词。分词是将文本拆分成单词的过程,而停用词是指那些在文本中频繁出现但没有实际含义的词汇,可以通过NLTK提供的停用词列表进行去除。
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize

stop_words = set(stopwords.words('english'))

words = word_tokenize(text_data)
filtered_words = [word.lower() for word in words if word.isalpha() and word.lower() not in stop_words]

2. 文本可视化

      通过词云制作实现文本数据的可视化呈现。

  • 使用wordcloud生成词云图:
  • WordCloud是一个用于生成词云图的库,它根据文本中单词的频率生成具有可视化效果的图形。在示例代码中,我们通过WordCloud生成词云图,并使用matplotlib展示。
from wordcloud import WordCloud
import matplotlib.pyplot as plt

wordcloud = WordCloud().generate(' '.join(filtered_words))

plt.imshow(wordcloud, interpolation='bilinear')
plt.axis("off")
plt.show()

使用 wordcloud 库生成词云图的过程主要分为以下几个步骤:

  1. 安装 wordcloud 库:
          在命令行或终端中运行以下命令安装 wordcloud

    pip install wordcloud
    
  2. 导入库:

    from wordcloud import WordCloud
    import matplotlib.pyplot as plt
    
  3. 准备文本数据:
          获取需要生成词云的文本数据,确保文本数据是字符串形式。

  4. 创建 WordCloud 对象并生成词云:

    wordcloud = WordCloud(width=800, height=400, background_color='white').generate(text_data)
    

          在这里,我们创建了一个 WordCloud 对象,指定了词云的宽度、高度和背景颜色。可以根据需要调整其他参数,比如字体、最大词汇量等。

  5. 可选步骤 - 自定义词云形状:
          如果你想要词云的形状为特定图形,可以使用自定义形状的图片。首先,你需要准备一张形状的图片,然后使用 WordCloudmask 参数指定该图片。

    from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator
    from PIL import Image
    
    # 读取形状图片
    mask = np.array(Image.open("your_shape_image.png"))
    
    # 使用形状图片生成词云
    wordcloud = WordCloud(mask=mask, background_color="white").generate(text_data)
    
  6. 显示或保存词云图:

    plt.imshow(wordcloud, interpolation='bilinear')
    plt.axis("off")
    
    # 显示词云图
    plt.show()
    
    # 或保存词云图
    wordcloud.to_file("wordcloud_output.png")
    

          使用 plt.show() 可以在运行脚本时显示词云图,而 to_file 方法可以保存词云图为图片文件。
          总体来说,使用 wordcloud 库生成词云图是一个相对简单的过程,主要涉及创建 WordCloud 对象并调整相关参数,然后通过 imshow 方法显示或通过 to_file 方法保存生成的词云图。


3. Python编程

      可看Python专栏
      要求通过Python实现上述功能,因此需要熟悉Python编程语言及其相关库和模块。

4. 词频统计

      对文本中各个词汇的出现频率进行统计分析。

  • 使用Counter进行词频统计:
  • Counter是Python的一个内置库,用于统计可哈希对象的出现次数。在这里,我们使用Counter来统计文本中单词的出现频率。
from collections import Counter
word_freq = Counter(filtered_words)

5. 人名提取

      从文本中提取人物名称,这可能需要使用一些自然语言处理(NLP)的技术或者规则来实现。

  • 使用spaCy进行实体识别:
  • spaCy是一个自然语言处理库,它提供了实体识别功能,可以用于从文本中提取人名等实体。在示例代码中,我们加载了英文的spaCy模型,并使用它来获取文本中的人物名称。
import spacy

nlp = spacy.load('en_core_web_sm')
doc = nlp(text_data)

person_names = [ent.text for ent in doc.ents if ent.label_ == 'PERSON']

6. 自然段划分

      将文本划分成自然段,可能涉及到对文本的分段或分句处理。

  • 使用正则表达式进行自然段划分:
  • 正则表达式是一种强大的文本匹配工具,可以根据特定的模式来划分文本。在这里,我们使用\n\n来划分自然段,表示两个换行符之间的文本。
import re

paragraphs = re.split('\n\n', text_data)

7. 人物出现频率分布分析

      分析文本中人物出现的频率分布情况,可以通过统计每个人物在文本中出现的次数来实现。

  • 统计人物出现频率:
  • 通过使用Counter,我们可以轻松地统计从文本中提取的人物名称的出现频率,从而进行人物出现频率分布分析。
character_freq = Counter(person_names)

8. 词云生成

      使用wordcloud模块生成词云图,这需要将词频等信息传递给词云模块,并对生成的图像进行一定的定制。
综合来看,这涉及到文本处理、数据统计、可视化和一定的自然语言处理方面的知识和技能。

  • 定制词云图:
  • 在生成词云图时,可以通过调整WordCloud的参数来定制图形的外观,包括图像的大小、背景颜色等。示例代码中展示了如何设置词云的宽度、高度和背景颜色。
wordcloud = WordCloud(width=800, height=400, background_color='white').generate_from_frequencies(word_freq)

plt.imshow(wordcloud, interpolation='bilinear')
plt.axis("off")
plt.show()

实验内容

数据下载地址

       文本分析所用小说(数据)

1.对纯英文小说进行分析。

主要步骤如下:
      下载一篇纯英文小说,保存为txt文档。
      打开小说文件,通过对字符串的处理(注意统计中要去掉各种标点符号,除英文以外的内容。),统计小说中所有英文单词的使用频次,结果保存在一个字典中。
      对字典中的数据进行排序,按照使用频次从高到低进行排序,并把统计结果写到一个文本文件中。
      把单词的使用频次的信息用词云的方式显示出来。

小说文件截图(处理小说源文件):
在这里插入图片描述

代码截图:
在这里插入图片描述
在这里插入图片描述
运行结果(词云):
在这里插入图片描述

生成词典并排序截图:
在这里插入图片描述

2.对中文小说进行分析。

      对于中文小说的词频统计、人名提取、自然段划分和人物出现频率分布分析,并利用wordcloud模块生成词云图。

主要步骤如下:
      下载一篇中文小说,字数在十万字以上。使用中文分词库进行分词。统计使用最多的人名和中文词汇并输出。
      列出小说中的主要人物,包括主人公,以及另外相关人物5人或以上。
      把小说分段,分析出小说一共有多少自然段。并统计出上面列出的人物共在多少个自然段中出现。并用某种输出模式体现出这种分布情况,例如在第一段出现,输出一个字符,在第二段没有出现,输出一个空格。可以直观的看出人物出现的位置和频率。
      分析主人公以及其他相关人物之间的亲密度,两个人在同一个自然段同时出现亲密度加1,最后得到统计结果。
      把词频的统计结果用词云的方式显示出来。

小说原文件截图(处理小说源文件):

在这里插入图片描述
代码截图:
在这里插入图片描述
在这里插入图片描述
运行结果(词云):
在这里插入图片描述
段落数截图:
在这里插入图片描述
细节:
人物出现频率截图
主角(阿龙纳斯):
在这里插入图片描述

配角1(康赛尔):
在这里插入图片描述

配角2(尼德•兰):
在这里插入图片描述

配角3(尼摩船长):
在这里插入图片描述

配角4(何伯逊敬启):
在这里插入图片描述

配角5(教授):
在这里插入图片描述

亲密度:
在这里插入图片描述

问题与解决

操作异常:在使用中文分词库jieba时,可能会遇到编码问题,导致分词不准确。
解决方案:在打开和处理文件时,使用正确的编码格式进行操作。可以尝试使用UTF-8编码,因为它在处理中文文本时通常表现良好。

操作异常:在使用wordcloud模块时,可能由于依赖 matplotlibNumPy 的安装问题而导致出现ImportError。

解决方案:可以尝试重新安装matplotlibnumpy模块,或者在虚拟环境中安装这些模块,以解决依赖库安装问题。

异常问题:处理中文小说时候,因为没有安装Python和jieba分词库代码无法运行。
解决方案:使用以下命令安装jieba:pip install jieba

异常问题:在处理英文小说时,代码中使用了nltk库和wordcloud库,但是用户没有提前安装这两个库,导致代码运行时报错。
解决方案:用户在运行代码前应该使用以下命令安装所需的库:pip install nltkpip install wordcloud

操作异常:因为没有设置中文字体路径词云图无法读出中文。
解决方案:下载该文件并加入代码font_path = 'zitiaozichangyinghedianshan.ttf # 设置中文字体路径

附录

1.对纯英文小说进行分析。

#英文小说单词使用频次统计和词云制作:
# 导入需要的库
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import string

# 读取小说文件
with open('H:/其他/小说/after twenty years.txt', 'r' ,encoding='utf-8') as f:
    novel = f.read()

# 去除标点符号和数字
translator = str.maketrans('', '', string.punctuation + string.digits)
novel = novel.translate(translator)

# 将小说中的单词转换为小写,并按照空格分割成列表
words = novel.lower().split()

# 统计单词出现频次
word_freq = {}
for word in words:
    if word in word_freq:
        word_freq[word] += 1
    else:
        word_freq[word] = 1

# 按照单词出现频次从高到低排序
sorted_word_freq = sorted(word_freq.items(), key=lambda x: x[1], reverse=True)

# 将排序结果写入文件
with open('H:/其他/小说/word_after twenty years.txt', 'w' ,encoding='utf-8') as f:
    for word, freq in sorted_word_freq:
        f.write(f'{word}: {freq}\n')

# 生成词云
wordcloud = WordCloud(width=800, height=800, background_color='white').generate_from_frequencies(word_freq)
plt.figure(figsize=(8, 8), facecolor=None)
plt.imshow(wordcloud)
plt.axis('off')
plt.tight_layout(pad=0)
plt.show()

2.对中文小说进行分析。

from wordcloud import WordCloud
import jieba
from collections import Counter
import matplotlib.pyplot as plt

# 设置中文字体路径
font_path = 'zitiaozichangyinghedianshan.ttf'

# 读取中文小说文件
with open('H:/其他/小说/海底两万里.txt', 'r', encoding='utf-8') as file:
    chinese_novel_text = file.read()

# 中文分词
seg_list = jieba.lcut(chinese_novel_text)

# 统计词频
word_counts = Counter(seg_list)

# 将词频字典转换为单个字符串
wordcloud_text = ' '.join(seg_list)

# 生成词云
wordcloud = WordCloud(width=800, height=400, background_color='white', font_path=font_path).generate(wordcloud_text)

# 显示词云图像
plt.figure(figsize=(10, 5))
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis('off')
plt.show()

# 填入小说中的主要人物,包括主人公和其他相关人物5人或以上
main_characters = ["阿龙纳斯", "康赛尔", "尼德•兰", "尼摩船长", "何伯逊敬启", "教授"]

# 分析小说自然段
paragraphs = chinese_novel_text.split('\n')
print("小说一共有{}自然段。".format(len(paragraphs)))

# 列出主要人物在每个自然段的出现情况
character_occurrence = {char: [0] * len(paragraphs) for char in main_characters}
for i, paragraph in enumerate(paragraphs):
    for char in main_characters:
        if char in paragraph:
            character_occurrence[char][i] = 1

# 输出人物在自然段中的出现情况
for char in main_characters:
    print("{}在各自然段的出现情况:".format(char), character_occurrence[char])

# 统计主要人物之间的亲密度
intimacy_matrix = [[0] * len(main_characters) for _ in range(len(main_characters))]
for i in range(len(main_characters)):
    for j in range(i + 1, len(main_characters)):
        for k in range(len(paragraphs)):
            if character_occurrence[main_characters[i]][k] and character_occurrence[main_characters[j]][k]:
                intimacy_matrix[i][j] += 1

# 输出亲密度矩阵
print("人物亲密度矩阵:")
for row in intimacy_matrix:
    print(row)

  • 29
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ZShiJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值