Python实现对Bilibili视频点赞等信息的爬取

前言

最近研究python的爬虫过程中,尝试学习了调用bilibili的各种api,可以爬取视频的信息、弹幕等,也可以爬取up主的基本信息等,故写博客记录爬取视频信息的方法。

功能描述

使用python的request库json库实现对bilibili网站中视频av号、bv号、收藏数、投币数、点赞数等信息的爬取。

功能实现


import requests
import json
import csv
import pandas as pd
# 爬虫地址
alphabet = 'fZodR9XQDSUm21yCkr6zBqiveYah8bt4xsWpHnJE7jL5VG3guMTKNPAwcF'
def dec(x):#BV号转换成AV号
    r = 0
    for i, v in enumerate([11, 10, 3, 8, 4, 6]):
        r += alphabet.find(x[v]) * 58**i
    return (r - 0x2_0840_07c0) ^ 0x0a93_b324

bid = input("input video bv number:")
aid = dec(bid)
url = r'https://api.bilibili.com/x/web-interface/archive/stat?aid=' +str(aid)
    # 携带cookie进行访问
headers = {
            'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.120 Safari/537.36'
            }
 # 获取url      
response = requests.get(url , timeout=30,headers = headers)
text = response.text
jsonobj = json.loads(text)
            
#从Json对象获取视频基本信息并转入词典中
video_dict = {'aid':jsonobj['data']['aid'],
             'bvid':jsonobj['data']['bvid'],
             'view':jsonobj['data']['view'],
             'danmuku_num':jsonobj['data']['danmaku'],
             'reply_num':jsonobj['data']['reply'],
             'favorite_num':jsonobj['data']['favorite'],
             'coin_num':jsonobj['data']['coin'],
             'share_num':jsonobj['data']['share'],
             'like_num':jsonobj['data']['like']
             }            
dataFrame = pd.DataFrame(video_dict,columns=['aid', 'bvid','view','danmuku_num','reply_num','favorite_num','coin_num','share_num','like_num'],index=[0])
dataFrame
#转换为csv格式存储
# dataFrame.to_csv("test.csv", index=False)

运行结果

运行结果

相关资料

【B站API】api研究笔记ep2-视频其他信息
获取Bilibili弹幕和评论的方法

  • 9
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 12
    评论
【资源说明】 基于python selenium实现B站直播弹幕和礼物信息爬虫源码+项目操作说明.zip 实现原理: 1.核心:数据去重 直播间网页页面可容纳的弹幕和礼物数据是有限的,且这些数据不断地在更新增加,超过一定量后,将会发生滚动覆盖。 程序每隔一段时间读取一次页面数据,若页面数据没有超出容量,则两次获取的数据在后段会有部分重复。若页面数据已经开始滚动,则两次获取的数据在位置上会发生错位。因此每获取一次数据就需要进行一次比较去重。 **去重原理如下图:(在twice数据列表中寻找与once数据列表末端元素相同的元素,扩展once数据列表。)** **一次去重后,once数据列表可以保留作为数据总列表,而twice数据列表可被新的一批数据覆盖,这样就可以实现重复去重** ![image](https://img.wenhairu.com/images/2021/02/25/EGByH.md.png) 2.主要方法 (1)网页数据定位方法:selenium浏览器对象访问指定直播间url,返回页面源码,再使用xpath定位对应html标签。 (2)加速去重方法:使用线程池,对弹幕和礼物列表同时去重。 (3)运行时长控制:分为两种模式,运行指定时长和运行至直播间关闭。 (4)抓取监控:每进行一次抓取并去重后,使用print输出一次数据列表,以实现对抓取数据的实时监控。 (5)数据抓取频率:分为两种模式,快模式和慢模式,具体可根据弹幕流量和直播间人数选择。快模式每0.5秒左右读一次页面数据,两类数据最大缓存量都为400条;慢模式每1秒左右读一次页面数据,两类数据最大缓存量都为200条。 (6)数据存储:当数据缓存量大于最大缓存量写入csv一次,并清空数据缓存,避免大量数据堆积。 三、使用注意事项 1.python环境下直接运行 (1)模块依赖安装: ```shell pip install selenium pip install lxml ``` (2)下载浏览器驱动(驱动与浏览器版本一定要对应)(浏览器推荐使用Firefox和Chrome):参考 [爬虫利器selenium和浏览器驱动安装教程](https://blog.csdn.net/qq_44032277/article/details/105793873) (3)修改浏览器驱动路径及配置: ```python # 如果使用的浏览器是chrome,第97行代码改为: bro = webdriver.Chrome('你的驱动路径', chrome_options = chrome_options) ``` ```python # 如果使用的浏览器是firefox,删除4行,改为: from selenium.webdriver.firefox.options import Options # 删除94-97行,改为: ff_options = Options() ff_options.add_argument('-headless') bro = webdriver.Firefox('你的驱动路径', firefox_options = ff_options) ``` (4)运行提示:程序在发送请求获取数据时可能因网络不稳定而报错,此时等待其快速重连即可,一般不会影响程序运行。 (5)建议:建议在控制台运行该py源码,因为其清理输出依赖于cmd 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值