【实验】通过requests和re爬取b站弹幕并保存

实验目的:

本实验要求通过requestsre第三方库用于爬取b站的弹幕并保存为txt文件。

爬取网站:
url = 'https://api.bilibili.com/x/v1/dm/list.so?oid=767237785'

实验操作环境: 

电脑操作环境为Window10系统,采用python3.9并利用Pycharm IDE进行爬虫相关操作。

第三方库版本:

requests:  2.28.1

fake_useragent:1.2.1

实验步骤:

导入相关库:
import requests                        # 用于发送HTTP请求
import re                              # 导入正则表达式库,用于文本解析
from fake_useragent import UserAgent   # 用于随机生成随机User-Agent
生成请求头:

利用UserAgent生成随机请求头:

# 设置请求的URL
url = 'https://api.bilibili.com/x/v1/dm/list.so?oid=767237785'
headers = {'user-agent': UserAgent().random}   # 设置请求的URL
发送请求:
r = requests.get(url, headers=headers)  # 请求发送
# 查看请求结果
print(r.text)

结果:

分析:可以看出出现乱码,因此下一步进行编码转换。

# 编码转换
r.encoding = 'utf-8'
# 输出结果
print(r.text)

结果如下:其中红色为我们需要爬取的内容:

解析文本数据:

以下".*?"为正则化表达式,用于匹配以上红线元素p内容,()括号内同理,其为我们需要爬取的内容。

# 使用正则表达式解析响应文本,获取所有匹配的内容 
content_list = re.findall('<d p=".*?">(.*?)</d>', r.text)  
文档写入:

注意提前创建"弹幕.txt"文件。

# 将解析的数据写入文件  
for content in content_list:  # 遍历解析得到的内容列表  
 # 以追加模式打开文件,编码方式为UTF-8 
    with open('弹幕.txt', 'a', encoding='utf-8') as f: 
        f.write(content)  # 将内容写入文件  
        f.write('\n')  # 在内容后添加换行符  
文档内容如下:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值