【python】某站视频评论爬取+情感分析

本文介绍了使用Python爬取毕站视频评论,通过正则表达式提取信息,进行文本数据处理和情感分析,最终将结果保存到表格并生成词云图。文章详细讲解了爬虫步骤、环境配置以及情感分析的方法。
摘要由CSDN通过智能技术生成

前言

最近逛毕站看到个关于某毕站视频弹幕的python情感分析的小项目,感觉挺有意思的,想求个源码玩一玩,不料竟然要我20大洋,正好放寒假了,那就自己查查资料学一学吧,随便练练手,提升下兴趣,于是便开始了这个小项目。(2023.1.2)

实现方法
爬虫爬取毕站评论信息 > 关键词正则匹配的方式抽取信息 > 文本数据处理 > nlp情感分析

“”"
爬虫代码实现步骤是什么?
1、发送请求
2.获取数据
3.解析数据
4.保存数据
“”"

环境配置

本文用PyCharm来写,所需的库为

import re
import time
import jieba
import requests
import xlwt
from snownlp import SnowNLP

这里简单介绍下snowNLP,一个处理中文文本的类库,可以分词,标注,还可以进行情绪分析。
因版权问题以下url以xxxxxxxxxxxxx显示

爬取毕站评论(1)

# 爬虫第一步:发送请求
# 请求网址
main_url = 'https://xxxxxxxxxxxxxx'
reply_url = 'https://xxxxxxxxxxxxxx'
# 请求头
headers = {
     # user-agent用户代理表示浏览器基本身份标识
     'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
}
# 发送请求
response = requests.get(url=main_url, headers=headers)
# 解决网页数据乱码
response.encoding = 'utf-8' # 出现数据乱码的话就可以加这句话

上面代码中可以看到有两个请求网址一个是main_url,另一个是reply_url,这两者的区别是
main_url可以得到如下图所示的主评论和三个评论的评论
mian
而reply_url可以得到如下图所示的主评论的所有评论
reply
实际上写代码中用main_url就可以了

如何获取发送请求的关键信息

这里以Chrome浏览器 + b站热门视频《后浪》进行演示
打开视频网站,点击F12可以跳出开发者模式,如下图所示
1

点击Network,刷新网址,搜索reply,如下图所示
2

在这里你能找到所需url,请求头所需的内容如cookie,user-agent等内容,这里我们仅需要url和user-agent
3

爬取毕站评论(2)

以上代码仅是爬取了一页的评论,如果想获取多页评论就需要添加for循环并动态修改url中next的值,并对数据进行合并处理。代码如下:

messages_list = []
unames_list = []
for i in range(30):
    # 请求网址
    time.sleep(1) # 防止操作过快,网站防爬
    main_url = f'https://xxxxxxxxxxxx...next={i}....'
    # 请求头
    headers = {
        # user-agent用户代理表示浏览器基本身份标识
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
    }
    # 发送请求
    response = requests.get(url=main_url, headers=headers)
    # 解决网页数据乱码
    response.encoding = 'utf-8'

    # 评论的作者和名字
    messages = re.findall(r'"message":"(.*?)",', response.content.decode())[1:]
    for message in messages:
        messages_list.append(message)
    unames = re.findall(r'"uname":"(.*?)",', response.content.decode())
    for uname in unames:
        unames_list.append(uname)
print(messages_list)
print(unames_list)

正则表达式匹配所需信息

# 子评论的作者和名字
messages = re.findall(r'"message":"(.*?)",', response.content.decode())[1:]
for message in messages:
	messages_list.append(message)
unames = re.findall(r'"uname":"(.*?)",', response.content.decode())
for uname in unames:
    unames_list.append(uname)
print(messages_list)
print(unames_list)

关于如何快速便捷的找到关键字呢?,我们可以采用一个叫JSON在线解析的一个小工具

双击之前得到的main?..文件,然后复制到JSON中
在这里插入图片描述

复制所有内容
1

在这就可以较为清楚到找到对应的信息啦,注意要搭配原视频下的评论和Ctrl+F快速查找使用更方便哦
json

文本数据处理

通过以上操作,我们便获得了评论的作者和文本信息了,但是这些评论中有很多我们不需要的奇怪字符,这些字符可能会影响我们接下来的情感分析,所以对这些文本进行数据的清理是很有必要的;

# 文本数据处理
def clear_character(message):
    pattern1 = '[a-zA-Z0-9]'
    pattern2 = re.compile(u'[^\s1234567890::' + '\u4e00-\u9fa5]+')
    pattern3 = '[\s+\.\!\/_,$%^*(+\"\']+|[+——!,。??、~@#¥%……&*()]+'
    line1 = re.sub(pattern1, '', message)  # 去除英文字母和数字
    line2 = re.sub(pattern2, '', line1)  # 去除表情和其他字符
    line3 = re.sub(pattern3, '', line2)  # 去除去掉残留的冒号及其它符号
    new_message = ''.join(line3.split())  # 去除空白
    return new_message
def fen_ci(new_message):
    with open('停用词表.txt', 'r', encoding='utf-8') as f:
        stop_word = f.read()
    word = jieba.cut(new_message)
    words = []
    for i in list(word):
        if i not in stop_word:
            words.append(i)
    words = "".join(words)
    return words

这里我用了两个函数对所获文本进行处理,第一个是比较基础的去除一些奇怪字符,第二个是做了一个jieba分词和停用词设置这里用了网上常见的停用词表,直接复制网上的就好,也可以根据自己的特殊情况进行设置;"停用词表.txt"该文件直接放在项目文件下就行。

情感分析

这里我用一个emotional函数进行情感分析,并将结果保存到表格里,代码和注释如下:

def emotional(messages_list, unames_list):
    # 保存到表格中
    # 实例化表格
    workbook = xlwt.Workbook(encoding='utf-8')
    # 实例化一个sheet
    worksheet = workbook.add_sheet('sheet_000001')
    # 第一个值为行第二个值为列第三个值为内容
    worksheet.write(0, 0, '姓名')
    worksheet.write(0, 1, '评论')
    worksheet.write(0, 2, '情感得分')
    worksheet.write(0, 3, '分析结果')
    # 统计情绪
    pos_count = 0  # 积极情绪计数器
    neg_count = 0  # 消极情绪计数器
    for i in range(len(messages_list)):
        # 姓名
        name = unames_list[i]
        # 评论
        message = messages_list[i]
        # 调用之前的两个函数进行数据处理
        new_message = clear_character(message)
        words = fen_ci(new_message)+' ' # 这里要加个' '防止函数将某些评论直接处理没了
        # 情感得分
        sentiments_score = SnowNLP(words).sentiments
        if sentiments_score < 0.5:
            tag = '消极'
            neg_count += 1
        else:
            tag = '积极'
            pos_count += 1
        # 分数在0-1之前我们可以定义为小于0.5的为消极情绪 大于等于0.5的为积极情绪
        # 将结果一行一行写到表格中
        worksheet.write(i + 1, 0, name)
        worksheet.write(i + 1, 1, message) # 这里可以改为words写入处理过的评论信息
        worksheet.write(i + 1, 2, sentiments_score)
        worksheet.write(i + 1, 3, tag)
    workbook.save('nlp分析.xls')
    # 统计一下评论的情绪分别的占比是多少
    # round去限制小数有多少位
    try:
        print('消极评论占比:', round(neg_count / (neg_count + pos_count), 4))
        print('积极评论占比:', round(pos_count / (neg_count + pos_count), 4))
    except Exception as e:
        print('程序出现了异常:', e)

运行结果

结果1
nlp分析表格
结果

此外调用wordcloud 词云模块,还可以做出好玩的词云图,如图
c

总结

好了,到此,这个简单的项目就结束了。事实上,这就是个简单的爬虫+数据处理的小项目,关于情感分析的模块也没建立自己的模型分析,你甚至可以尝试调用百度的API接口来完成这个有意思的小项目。

最后求点赞,求收藏!求评论,爱你
(有不懂的可以私信我,我会在文章中进行补充)
以上就是本文的主要内容,有错误请各位大佬指正。

【资源说明】 基于DrissionPage实现的获取快手直播间实时礼物、聊天、点赞信息python源码+使用说明+详细注释.zip 环境要求 建议使用conda虚拟环境部署,python版本要求大于或等于``3.6`` 环境安装 首先你需要将本项目克隆到你本地。 然后您只需要使用下面命令即可一键安装所需的环境 ```bash pip3 install -r requirements.txt ``` 如果pip下载速度较慢,请使用下面这个命令 ``` pip3 install -r requirements.txt -i http://pypi.douban.com/simple/ ``` 配置 在使用前,你需要完成一些基本配置 所有配置你只需要在``config.py``文件中完成,如果你不懂任何技术,请不要修改除``config.py``文件外的任何文件。 你主要是需要去配置``LIVE_URL``选项,去指定直播间的地址,配置实例 ```py LIVE_URL = r"https://live.kuaishou.com/u/KPL704668133" ``` 上面这个代码我指定了KPL直播间地址。 其次,你需要配置``BROWSER_PATH``选项,该选项需要你指定浏览器可执行文件的路径,在默认的配置中,我使用了``edge``浏览器作为驱动。 你可以配置任何使用``chromium``内核构建的浏览器,例如``Microsoft Edge``或者是``Google Chrome``等。 ```py BROWSER_PATH = r'C:\Program Files (x86)\Microsoft\Edge\Application\msedge.exe' ``` 其他选项对于本项目的运行影响不大,你可以看选项上面的注释进行配置 运行 如果你完成了上述的配置,使用以下命令进行启动本项目 ```bash python main.py ``` 未知礼物 由于时效性问题,可能导致一些礼物无法识别,此时,你需要额外配置一些未知的礼物。 程序会将获取到的未知的例如默认存放到``unknow_gift``目录(你可以在``config.py``中修改这个路径),名称为:礼物图片md5.png,你需要将``礼物图片md5``改为礼物真实的名称,例如,原始文件名``580c253e0bd3cc4212f7087d110691ed.png``,你需要改为``粉丝团.png`` 最后你需要执行以下命令完成礼物的导入 ```shell python import_git.py ``` 事件开发 如果你在获取到礼物、收到聊天信息、收到点赞后想实现一些业务流程处理,你需要在``handle.py``中实现。 该文件中共实现了三个方法,分别为``message``、``like``、``gift``分别代表了``消息``、``点赞``、``礼物`` 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用途:项目具有较高的学习借鉴价值,不仅适用于小白学习入门进阶。也可作为毕设项目、课程设计、大作业、初期项目立项演示等。 4、如果基础还行,或热爱钻研,亦可在此项目代码基础上进行修改添加,实现其他不同功能。 欢迎下载,沟通交流,互相学习,共同进步!
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

追逐X

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值