爬取微博用户的所有视频

难点

主要是在抓包分析怎么实现分页获取,通过抓包分析,我们知道每次请求获取视频的时候,返回的数据中都会有一个next_cursor属性

 当请求为最后一页的时候,next_cursor为-1,第一次请求next_cursor为0

通过这样分析,我们就可以很容易获取到想要的数据了

获取数据

请求头
headers = {
    'Cookie': 'SINAGLOBAL=666731024991.3516.1692108672688; SUB=_2A25J3_fyDeRhGeBK41IY9CbIzDyIHXVrI5m6rDV8PUJbkNANLRnTkW1NR5DGKlU-7QQXFUn8kCO7tHZWHa2lstgT; SUBP=0033WrSXqPxfM725Ws9jqgMF55529P9D9WhfqYIORlaYHk9cTmVipRvw5NHD95QcShn71KBRShM7Ws4Dqcj.i--ciK.RiKLsi--ci-88iKyFi--ci-2Ei-2ci--Ni-2EiKy8; XSRF-TOKEN=j1xKHXp5NhQe6PQfbcsrCsbK; _s_tentry=weibo.com; Apache=7785653743983.5625.1692144415457; ULV=1692144415526:3:3:3:7785653743983.5625.1692144415457:1692112430474; WBPSESS=-hAVHrSkMC8S4jXFC4-lqnFhFtNlrZmAL-r5XJQqEZxHyzIHGIPV0NHIisq9ALS32gvYmuib-sMSj5_PnjsfSxrsrk42crVW65GaxDPbJhzjy5gXZg19j07R0Qy1OJfS5oZKop_lRJX1ZHkKrd5B7w==',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36 Edg/115.0.1901.203',
    'Referer': 'https://weibo.com/u/5620452341?tabtype=newVideo'
}
获取数据 
def get_page_info(user_id, next_cursor):
    url = 'https://weibo.com/ajax/profile/getWaterFallContent'

    params = {
        # 'uid': '5351727623',
        # 'uid': '5252751519',
        'uid': user_id,
        'cursor': next_cursor
    }
    try:
        res = requests.get(url=url, headers=headers, params=params)
        if res.status_code == 200:
            return res.json()
        return None
    except requests.exceptions.RequestException as e:
        print(e)
        return None

 解析数据

def parse_json_data(json_data):
    try:
        # pprint(json_data['data']['next_cursor'])
        videos = json_data['data']['list']
        for video in videos:
            video_url = video['page_info']['media_info']['mp4_hd_url']
            # print(video_url)
            video_title = video['page_info']['media_info']['kol_title']
            video_author = video['page_info']['media_info']['author_name']
            video_content = requests.get(url=video_url, headers=headers).content
            video_title = deal_special_words(video_title)
            if not os.path.exists(f'E:/Python/project/网络爬虫/12-爬取微博用户视频/videos/{video_author}'):
                os.mkdir(f'E:/Python/project/网络爬虫/12-爬取微博用户视频/videos/{video_author}')
            path = video_title + '.' + 'mp4'
            with open(f'videos/{video_author}/{path}', mode='wb') as f:
                f.write(video_content)
                print(f'{video_title}下载完毕')
        return json_data['data']['next_cursor']
    except Exception as e:
        print(e)

处理特殊字符

def deal_special_words(word):
    # 去掉特殊符号
    replaceWord = '\/:*?"<>|.,;,。;#??"‘’!@“#¥%……&*()!@#$%^&*()'
    for i in replaceWord:
        if i in word:
            word = word.replace(i, '')  # 替换成''
    word = word.replace("\n", '')
    word.strip()
    return word

主函数

def main(user_id):
    next_cursor = 0
    while True:
        json_data = get_page_info(user_id=user_id, next_cursor=next_cursor)
        next_cursor = parse_json_data(json_data)
        print(f'当前页的cursor:{next_cursor}')
        if next_cursor == -1:
            print('已经到底了...')
            break

效果展示

 完整代码

import os
from pprint import pprint

import requests

headers = {
    'Cookie': 'SINAGLOBAL=666731024991.3516.1692108672688; SUB=_2A25J3_fyDeRhGeBK41IY9CbIzDyIHXVrI5m6rDV8PUJbkNANLRnTkW1NR5DGKlU-7QQXFUn8kCO7tHZWHa2lstgT; SUBP=0033WrSXqPxfM725Ws9jqgMF55529P9D9WhfqYIORlaYHk9cTmVipRvw5NHD95QcShn71KBRShM7Ws4Dqcj.i--ciK.RiKLsi--ci-88iKyFi--ci-2Ei-2ci--Ni-2EiKy8; XSRF-TOKEN=j1xKHXp5NhQe6PQfbcsrCsbK; _s_tentry=weibo.com; Apache=7785653743983.5625.1692144415457; ULV=1692144415526:3:3:3:7785653743983.5625.1692144415457:1692112430474; WBPSESS=-hAVHrSkMC8S4jXFC4-lqnFhFtNlrZmAL-r5XJQqEZxHyzIHGIPV0NHIisq9ALS32gvYmuib-sMSj5_PnjsfSxrsrk42crVW65GaxDPbJhzjy5gXZg19j07R0Qy1OJfS5oZKop_lRJX1ZHkKrd5B7w==',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36 Edg/115.0.1901.203',
    'Referer': 'https://weibo.com/u/5620452341?tabtype=newVideo'
}


def deal_special_words(word):
    # 去掉特殊符号
    replaceWord = '\/:*?"<>|.,;,。;#??"‘’!@“#¥%……&*()!@#$%^&*()'
    for i in replaceWord:
        if i in word:
            word = word.replace(i, '')  # 替换成''
    word = word.replace("\n", '')
    word.strip()
    return word


def get_page_info(user_id, next_cursor):
    url = 'https://weibo.com/ajax/profile/getWaterFallContent'

    params = {
        # 'uid': '5351727623',
        # 'uid': '5252751519',
        'uid': user_id,
        'cursor': next_cursor
    }
    try:
        res = requests.get(url=url, headers=headers, params=params)
        if res.status_code == 200:
            return res.json()
        return None
    except requests.exceptions.RequestException as e:
        print(e)
        return None


def parse_json_data(json_data):
    try:
        # pprint(json_data['data']['next_cursor'])
        videos = json_data['data']['list']
        for video in videos:
            video_url = video['page_info']['media_info']['mp4_hd_url']
            # print(video_url)
            video_title = video['page_info']['media_info']['kol_title']
            video_author = video['page_info']['media_info']['author_name']
            video_content = requests.get(url=video_url, headers=headers).content
            video_title = deal_special_words(video_title)
            if not os.path.exists(f'E:/Python/project/网络爬虫/12-爬取微博用户视频/videos/{video_author}'):
                os.mkdir(f'E:/Python/project/网络爬虫/12-爬取微博用户视频/videos/{video_author}')
            path = video_title + '.' + 'mp4'
            with open(f'videos/{video_author}/{path}', mode='wb') as f:
                f.write(video_content)
                print(f'{video_title}下载完毕')
        return json_data['data']['next_cursor']
    except Exception as e:
        print(e)


def main(user_id):
    next_cursor = 0
    while True:
        json_data = get_page_info(user_id=user_id, next_cursor=next_cursor)
        next_cursor = parse_json_data(json_data)
        print(f'当前页的cursor:{next_cursor}')
        if next_cursor == -1:
            print('已经到底了...')
            break


if __name__ == '__main__':
    user_id = input("请输入您要爬取的用户id:")
    main(user_id=user_id)

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 取微博数据是指通过爬取微博网站上的内容,获取用户微博上发布的各种信息,包括文字、图片、视频等。爬取微博数据的方式可以使用Python编程语言中的爬虫技术来实现。 Python爬虫是一种自动获取网页内容的技术,通过模拟浏览器行为,可以获取网页上的数据。对于微博数据的爬取,可以通过Python爬取微博官方API接口或者直接爬取微博网页上的内容。 爬取微博数据需要首先进行身份认证和授权,获取访问权限。然后,可以通过API接口或者请求微博网页,获取微博网站上的数据。可以将数据保存在数据库中,或者直接进行分析和处理。 爬取到的微博数据可以用于各种目的,如数据开发、微博分析等。数据开发是指对爬取到的数据进行清洗、整理和存储,以便后续的数据分析和应用。微博分析则是对微博数据进行统计和分析,了解用户的行为和趋势,找出有价值的信息。 对于爬取微博数据,可以通过可视化的方式呈现,以更直观地展示数据的分布和变化趋势。可视化可以使用各种Python的数据可视化库,如matplotlib、seaborn等,制作各种图表、图像和地图等,提供更好的数据展示效果。 总结来说,通过Python编程语言中的爬虫技术,可以取得微博数据并进行数据开发、微博分析和可视化处理,从中获取有价值的信息。 ### 回答2: 取微博数据是指使用爬虫技术从微博平台上抓取用户的相关信息,通过获取微博的内容、点赞数、转发数、评论数等数据,并进行可视化分析以及数据开发,以了解用户行为和趋势。 在这个过程中,可以使用Python编写爬虫程序来自动化地访问微博网站并获取所需数据。爬虫程序可以模拟用户登录微博,搜索关键词或用户,获取相关微博内容,并提取所需的数据信息。 通过爬取微博数据,可以进行数据开发,包括数据清洗、处理以及存储。数据清洗是指对原始数据进行去除噪声、格式转换、去重等操作,以保证数据的准确性和一致性。数据处理是指对清洗后的数据进行加工处理,如对文字进行分词、提取关键词等。数据存储则是将处理后的数据以合适的格式保存在数据库或文件中,以备后续使用。 除了数据开发,还可以进行微博数据的可视化分析。通过使用数据可视化工具和库,将微博数据转化为图表、地图、词云等可视化形式,从而更直观地展示数据的分布和趋势。通过分析微博数据可视化结果,可以发现用户关注的热点话题、用户行为模式等信息,为企业和个人提供决策参考。 总之,通过取微博数据并进行可视化分析以及数据开发,我们可以深入了解用户行为和趋势,为企业和个人提供更有针对性的决策和推广策略。同时,这也为数据分析领域的研究和应用提供了丰富的资源和实践案例。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值