【网络爬虫】使用Python披露采集Up主视频详情信息

本文介绍了如何使用Python编写网络爬虫,从B站获取特定Up主「祖国街景」的视频Bvid和其他信息。通过分析网址规律,构建爬虫代码,最终成功抓取到258个视频的数据,包括字段详细信息。适合对Python爬虫感兴趣的读者学习。
摘要由CSDN通过智能技术生成

在这里插入图片描述

一、问题

看到一个B站账号-祖国街景,使用行车记录仪记录中国城市,同时该账号还有youtube账号(中国街景), 感觉视频的评论和弹幕可以用来做城市形象方面的数据分析。

但是需要有每个视频的Bvid才能采集。今天要分享的内容是如何获取某Up主的所有视频对应的Bvid等信息 。完整的爬虫撰写步骤:

  1. 发现网址规律,获得批量url
  2. 对某个url发起成功的访问
  3. 解析该url对应的网页数据
  4. 存储到csv
  5. 对所有url, 重复步骤2-4

为了减少工作量, 我就简单分析下网址规律,直接上代码。

二、网址规律

要获取某Up主视频Bvid等信息,只需要获得视频列表mid值,如下图。

在这里插入图片描述

找网址规律的方法是打开开发者工具Network面板, 在当前网页刷新, 按照截图标号顺序点击鼠标, 得到网址规律(下方截图红3)。剔除了对结果影响不大的参数,最终得到网址规律模板 template 。

template =  'https://api.bilibili.com/x/space/wbi/arc/search?mid={mid}&ps=30&pn={page}'

在这里插入图片描述

三、 爬虫代码

下方代码只需要改变 Up 主 mid 值,其他地方不要改动。我设置了限速,每秒访问一次, 直接运行代码,假设Up主有 9 页, 程序大概运行 9s 左右。

import requests
import csv
import time


headers = {
   "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36"}
template =  'https://api.bilibili.com/x/space/wbi/arc/search?mid={mid}&ps=30&pn={page}'

#只需更改这个参数,就能爬视频列表信息
mid = '373489046'


with open('{mid}_infos.csv'.format(mid=mid), 'w', encoding='utf-8', newline='') as csvf:
    fieldnames = ['comment', 'typeid', 'play', 'pic', 'subtitle', 'description', 'copyright', 'title', 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值
>