【Python】爬取弹幕并保存到Excel中

hello,我是李华同学,最近开始学习爬虫,下面是我实现的一个得到弹幕的代码 😏

找一个URL👉

想要得到一个网站的内容,首先要找到你想要内容的具体位置,首先你先找到一个有弹幕的地方,找到后按F12,找到在网络下,然后刷新页面,在左边搜索栏搜history可以找到储存弹幕的地址(图1),弹幕地址具体情况具体分析。

在标头下的“请求URL”,后面那一串链接就是要爬取的位置。(图2)

图1

图2

实现代码过程👉

🔰将Python代码和Excel文件放在一个文件下

图3

🔰用request库进行操作

不会下载库的同学可以在pycharm终端下用pip下载,也可以在设置setting的project下下载,具体步骤不会可以搜大佬的文章。

用requests对网站进行访问,这里用到了get请求方法,请求方法可以在之前找URL下看到。(图2)

#B站某直播间地址
requests.get('https://api.live.bilibili.com/xlive/web-room/v1/dM/gethistory?roomid=5050')
🔰对访问的内容进行选择

我这里就选择了姓名和弹幕

for ac in d['data']['room']:
        s = "{}说:{}".format(ac['nickname'], ac['text'])
🔰防止得到的内容重复

用列表储存爬取的数据,用if条件判断新爬取的内容是否在列表ls中,如果不在就用append追加到列表中。

ls = []
if s not in ls:
            ls.append(ls)         
🔰把得到的数据保存到Excel中

在这个过程中用到了openpyxl库。

首先在Excel中先写下表头(图4),为接下来插入得到的内容找位置,然后保存(记得爬取的时候不要打开Excel文件)。

# 打开文件
wb = openpyxl.Workbook()
# 使用的工作对象创建一张表
sheet = wb.active
# 在sheet1表中写入内容    插入内容
sheet.append(['B友姓名', 'B友说的话'])

保存内容,这个是借鉴一个大佬的博客:【(1条消息) 利用python爬取信息并保存到excel_wer875442的博客-CSDN博客_如何将爬取的数据存入excel】,具体的解释可以看这位大佬的,还有实例。

print('B友姓名' + nickname, 'B友说的话' + text)
            print('开始写入excel,请稍等...', end='')
            xx_info = [nickname, text]
            sheet.append(xx_info)
            print('写入成功\n')
            # 关闭保存工作簿
        wb.save('data.xls')

图4

全部代码(代码的直接取)👉

import random
import requests
import time
import openpyxl

# 打开文件
wb = openpyxl.Workbook()
# 使用的工作对象创建一张表
sheet = wb.active
# 在sheet1表中写入内容    插入内容
sheet.append(['B友姓名', 'B友说的话'])  #这是在excel第一行插入,可以相当于一个文件的表头
# 用列表储存爬取内容,防止出现相似值
ls = []
# 循环实时弹幕
while True:
    # 爬取的直播间
    r = requests.get('')#这里括号里放找到的URL
    # 每次爬取的间隔,防止让服务器崩溃
    time.sleep(random.randint(1, 3))
    # 将输出的字符串内容转换成字典形式
    d = eval(r.text)
    # 在这两字典中爬取
    for ac in d['data']['room']:
        s = "{}说:{}".format(ac['nickname'], ac['text'])
        nickname = ac['nickname']
        text = ac['text']
        # 判断输出内容是否重复
        if s not in ls:
            ls.append(ls)
            # 确定没有重复值了输出
            # 颜色
            sheet.sheet_properties.tabColor = '000000'
            print('B友姓名' + nickname, 'B友说的话' + text)
            print('开始写入excel,请稍等...', end='')
            xx_info = [nickname, text]
            sheet.append(xx_info)
            print('写入成功\n')
            # 关闭保存工作簿
        wb.save('data.xls')

陌生人感谢您的观看,如果帮助您解决了问题,请给我点一个赞,让我有更充足的动力学习。

谢谢观看,记得点赞

  • 12
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 13
    评论
包括标题、up主、up主id、精确播放数、历史累计弹幕数、点赞数、投硬币枚数、收藏人数、转发人数、发布时间、视频时长、视频简介、作者简介和标签 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

-李华同学-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值