【python】某站视频评论爬取+情感分析

本文介绍了使用Python爬取毕站视频评论,通过正则表达式提取信息,进行文本数据处理和情感分析,最终将结果保存到表格并生成词云图。文章详细讲解了爬虫步骤、环境配置以及情感分析的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

最近逛毕站看到个关于某毕站视频弹幕的python情感分析的小项目,感觉挺有意思的,想求个源码玩一玩,不料竟然要我20大洋,正好放寒假了,那就自己查查资料学一学吧,随便练练手,提升下兴趣,于是便开始了这个小项目。(2023.1.2)

实现方法
爬虫爬取毕站评论信息 > 关键词正则匹配的方式抽取信息 > 文本数据处理 > nlp情感分析

“”"
爬虫代码实现步骤是什么?
1、发送请求
2.获取数据
3.解析数据
4.保存数据
“”"

环境配置

本文用PyCharm来写,所需的库为

import re
import time
import jieba
import requests
import xlwt
from snownlp import SnowNLP

这里简单介绍下snowNLP,一个处理中文文本的类库,可以分词,标注,还可以进行情绪分析。
因版权问题以下url以xxxxxxxxxxxxx显示

爬取毕站评论(1)

# 爬虫第一步:发送请求
# 请求网址
main_url = 'https://xxxxxxxxxxxxxx'
reply_url = 'https://xxxxxxxxxxxxxx'
# 请求头
headers = {
     # user-agent用户代理表示浏览器基本身份标识
     'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
}
# 发送请求
response = requests.get(url=main_url, headers=headers)
# 解决网页数据乱码
response.encoding = 'utf-8' # 出现数据乱码的话就可以加这句话

上面代码中可以看到有两个请求网址一个是main_url,另一个是reply_url,这两者的区别是
main_url可以得到如下图所示的主评论和三个评论的评论
mian
而reply_url可以得到如下图所示的主评论的所有评论
reply
实际上写代码中用main_url就可以了

如何获取发送请求的关键信息

这里以Chrome浏览器 + b站热门视频《后浪》进行演示
打开视频网站,点击F12可以跳出开发者模式,如下图所示
1

点击Network,刷新网址,搜索reply,如下图所示
2

在这里你能找到所需url,请求头所需的内容如cookie,user-agent等内容,这里我们仅需要url和user-agent
3

爬取毕站评论(2)

以上代码仅是爬取了一页的评论,如果想获取多页评论就需要添加for循环并动态修改url中next的值,并对数据进行合并处理。代码如下:

messages_list = []
unames_list = []
for i in range(30):
    # 请求网址
    time.sleep(1) # 防止操作过快,网站防爬
    main_url = f'https://xxxxxxxxxxxx...next={i}....'
    # 请求头
    headers = {
        # user-agent用户代理表示浏览器基本身份标识
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
    }
    # 发送请求
    response = requests.get(url=main_url, headers=headers)
    # 解决网页数据乱码
    response.encoding = 'utf-8'

    # 评论的作者和名字
    messages = re.findall(r'"message":"(.*?)",', response.content.decode())[1:]
    for message in messages:
        messages_list.append(message)
    unames = re.findall(r'"uname":"(.*?)",', response.content.decode())
    for uname in unames:
        unames_list.append(uname)
print(messages_list)
print(unames_list)

正则表达式匹配所需信息

# 子评论的作者和名字
messages = re.findall(r'"message":"(.*?)",', response.content.decode())[1:]
for message in messages:
	messages_list.append(message)
unames = re.findall(r'"uname":"(.*?)",', response.content.decode())
for uname in unames:
    unames_list.append(uname)
print(messages_list)
print(unames_list)

关于如何快速便捷的找到关键字呢?,我们可以采用一个叫JSON在线解析的一个小工具

双击之前得到的main?..文件,然后复制到JSON中
在这里插入图片描述

复制所有内容
1

在这就可以较为清楚到找到对应的信息啦,注意要搭配原视频下的评论和Ctrl+F快速查找使用更方便哦
json

文本数据处理

通过以上操作,我们便获得了评论的作者和文本信息了,但是这些评论中有很多我们不需要的奇怪字符,这些字符可能会影响我们接下来的情感分析,所以对这些文本进行数据的清理是很有必要的;

# 文本数据处理
def clear_character(message):
    pattern1 = '[a-zA-Z0-9]'
    pattern2 = re.compile(u'[^\s1234567890::' + '\u4e00-\u9fa5]+')
    pattern3 = '[\s+\.\!\/_,$%^*(+\"\']+|[+——!,。??、~@#¥%……&*()]+'
    line1 = re.sub(pattern1, '', message)  # 去除英文字母和数字
    line2 = re.sub(pattern2, '', line1)  # 去除表情和其他字符
    line3 = re.sub(pattern3, '', line2)  # 去除去掉残留的冒号及其它符号
    new_message = ''.join(line3.split())  # 去除空白
    return new_message
def fen_ci(new_message):
    with open('停用词表.txt', 'r', encoding='utf-8') as f:
        stop_word = f.read()
    word = jieba.cut(new_message)
    words = []
    for i in list(word):
        if i not in stop_word:
            words.append(i)
    words = "".join(words)
    return words

这里我用了两个函数对所获文本进行处理,第一个是比较基础的去除一些奇怪字符,第二个是做了一个jieba分词和停用词设置这里用了网上常见的停用词表,直接复制网上的就好,也可以根据自己的特殊情况进行设置;"停用词表.txt"该文件直接放在项目文件下就行。

情感分析

这里我用一个emotional函数进行情感分析,并将结果保存到表格里,代码和注释如下:

def emotional(messages_list, unames_list):
    # 保存到表格中
    # 实例化表格
    workbook = xlwt.Workbook(encoding='utf-8')
    # 实例化一个sheet
    worksheet = workbook.add_sheet('sheet_000001')
    # 第一个值为行第二个值为列第三个值为内容
    worksheet.write(0, 0, '姓名')
    worksheet.write(0, 1, '评论')
    worksheet.write(0, 2, '情感得分')
    worksheet.write(0, 3, '分析结果')
    # 统计情绪
    pos_count = 0  # 积极情绪计数器
    neg_count = 0  # 消极情绪计数器
    for i in range(len(messages_list)):
        # 姓名
        name = unames_list[i]
        # 评论
        message = messages_list[i]
        # 调用之前的两个函数进行数据处理
        new_message = clear_character(message)
        words = fen_ci(new_message)+' ' # 这里要加个' '防止函数将某些评论直接处理没了
        # 情感得分
        sentiments_score = SnowNLP(words).sentiments
        if sentiments_score < 0.5:
            tag = '消极'
            neg_count += 1
        else:
            tag = '积极'
            pos_count += 1
        # 分数在0-1之前我们可以定义为小于0.5的为消极情绪 大于等于0.5的为积极情绪
        # 将结果一行一行写到表格中
        worksheet.write(i + 1, 0, name)
        worksheet.write(i + 1, 1, message) # 这里可以改为words写入处理过的评论信息
        worksheet.write(i + 1, 2, sentiments_score)
        worksheet.write(i + 1, 3, tag)
    workbook.save('nlp分析.xls')
    # 统计一下评论的情绪分别的占比是多少
    # round去限制小数有多少位
    try:
        print('消极评论占比:', round(neg_count / (neg_count + pos_count), 4))
        print('积极评论占比:', round(pos_count / (neg_count + pos_count), 4))
    except Exception as e:
        print('程序出现了异常:', e)

运行结果

结果1
nlp分析表格
结果

此外调用wordcloud 词云模块,还可以做出好玩的词云图,如图
c

总结

好了,到此,这个简单的项目就结束了。事实上,这就是个简单的爬虫+数据处理的小项目,关于情感分析的模块也没建立自己的模型分析,你甚至可以尝试调用百度的API接口来完成这个有意思的小项目。

最后求点赞,求收藏!求评论,爱你
(有不懂的可以私信我,我会在文章中进行补充)
以上就是本文的主要内容,有错误请各位大佬指正。

### 回答1: CentOS 7启动httpd服务失败可能有多种原因,以下是一些常见的解决方法: 1. 检查httpd配置文件是否正确:可以使用命令`httpd -t`检查httpd配置文件是否正确,如果有错误,需要修改配置文件。 2. 检查端口是否被占用:可以使用命令`netstat -tlnp`查看端口是否被占用,如果被占用需要释放端口或修改httpd配置文件中的端口号。 3. 检查httpd服务是否安装:可以使用命令`rpm -qa | grep httpd`查看httpd服务是否安装,如果没有安装需要先安装httpd服务。 4. 检查httpd服务是否启动:可以使用命令`systemctl status httpd`查看httpd服务是否启动,如果没有启动需要使用命令`systemctl start httpd`启动httpd服务。 5. 检查SELinux是否开启:如果SELinux开启,可能会导致httpd服务启动失败,需要使用命令`setenforce 0`关闭SELinux,或者修改SELinux策略。 以上是一些常见的解决方法,如果以上方法都无法解决问题,可以查看httpd服务日志文件,找到具体的错误信息,然后根据错误信息进行解决。 ### 回答2: CentOS 7上的httpd服务启动失败可能有多种原因。以下列出了一些常见问题和解决方法: 1. 端口被占用 当httpd试图占用已被其他程序占用的端口时会启动失败。此时可以通过使用`netstat -tunlp`命令检查端口占用情况,然后杀死占用该端口的进程及时释放端口。或者修改httpd的配置文件,将端口修改为未被占用的端口。 2. 配置文件错误 有时httpd服务的配置文件中可能出现错误,例如语法错误或路径错误等等。在启动httpd服务之前,可以使用`apachectl configtest`命令进行检查,如果输出“Syntax OK”,则表示配置文件没有错误。如果出现错误,则需要根据错误提示进行相应修改。 3. 依赖关系问题 如果httpd依赖的其他程序或库缺失,也会导致启动失败。可以通过使用`systemctl status httpd.service`命令来查看httpd服务状态,如果输出“Failed to start”或“Loaded: failed”,则需要检查依赖关系是否完整。 4. SELinux问题 当SELinux启用时,有时会导致httpd服务启动失败。在这种情况下,可以在SELinux上禁用httpd服务,或者修改httpd配置文件解决SELinux相关的问题。 5. 用户权限问题 httpd服务启动可能需要特定的用户权限。如果使用的用户权限不够,则无法启动。可以尝试使用root用户启动httpd服务,或者根据需要修改相应的用户权限。 ### 回答3: CentOS 7中的Apache HTTP服务器(httpd)是一个常见的Web服务器,如果遇到httpd服务启动失败的情况,可能会影响服务器正常的工作和对外服务的稳定性。本文将提供一些可能会导致httpd服务启动失败的原因,并给出相应的解决方法。 1. 端口被占用 如果端口被其他进程占用,httpd服务就无法启动。可以通过 netstat -tulpn 命令查看端口占用情况,并杀死占用该端口的进程。如果端口被 httpd 服务自身占用,可以通过 systemctl restart httpd 命令重启 httpd 服务;如果是其他进程占用了端口,可以通过 kill 命令杀死该进程或更改 httpd.conf 文件配置,将 httpd 服务的端口改为其他空闲端口,重新启动。 2. 配置文件错误 httpd 服务的配置文件通常是 /etc/httpd/conf/httpd.conf,如果其中存在语法错误、权限问题或者其它配置错误,可能会导致 httpd 服务启动出错。可以通过将 httpd.conf 文件备份后删掉,重新执行 yum install httpd 命令安装 httpd 服务,然后手动修改 httpd.conf 文件,逐个检查每个配置项是否正确,确认无误后重启 httpd 服务。 3. SELinux 问题 SELinux 是 CentOS 7中提供的一种安全模块,它可以对系统文件和应用程序进行安全管控。如果 SELinux 配置不正确,可能会阻止 httpd 服务正常启动。可以通过修改 /etc/selinux/config 文件中 SELINUX=disabled 来暂时关闭 SELinux,然后重新启动 httpd 服务;或者一个更优的方式是,根据日志确定问题原因,使用命令 semanage 或者 setsebool 等工具将相关目录或者配置加入到 SELinux 许可列表中,重新启动 httpd 服务,以恢复服务正常工作。 4. 防火墙问题 如果你的 CentOs 7 服务器启用了防火墙,有可能会导致 httpd 服务启动失败。可以通过检查防火墙相关配置来确定问题原因,解决方案是修改防火墙规则,将端口 80 或者 443 等 httpd 服务需要的端口放行,重新启动 httpd 服务。 总之,当遇到 httpd 服务启动失败时,不要慌张,可以先通过日志或者执行命令查看错误信息,找到错误原因,然后根据错误原因一步一步解决问题。在解决问题过程中注意备份原始配置文件,以免造成不必要的损失。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

追逐X

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值