APP爬虫之B站app爬虫模板

5 篇文章 0 订阅
3 篇文章 0 订阅
import urllib.request
import urllib.parse
import json

# 解决证书信任问题
import ssl
ssl._create_default_https_context = ssl._create_unverified_context

# headers 通过具体抓包设置
headers ={}

video_page_num = 1
while True:
    video_page_url = ""
    """
    很漂亮的爬虫语句
    urllib.request.Request(url, headers) 
    urllib.request.urlopen(...)
    .read()
    .decode("utf-8")
    json.loads(...)
    """
    temp_data = json.loads(urllib.request.urlopen(urllib.request.Request(url=video_page_url, headers=headers)).read().decode("utf-8"))["data"]

    for eve_video in temp_data:
        oid_data = eve_video["param"]
        page_num = 1
        while True:

            comment_url = ""
            comment_data = json.loads(urllib.request.urlopen(urllib.request.Request(url=comment_url, headers=headers)).read().decode("utf-8"))
            acount = int(comment_data["data"]["page"]["acount"])

            if int(acount/20) + 1 <= page_num:
                break
            else:
                page_num = page_num + 1
            for eve_comment in comment_data["data"]["replies"]:
                eve_comment["video_data"] = eve_video
                print(eve_comment)

    if len(temp_data) < 50:
        break
    else:
        video_page_num = video_page_num + 1

 

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值