如何制作快手评论用户uid采集软件器

本文介绍了一个Python程序,该程序能爬取快手用户的uid,获取其所有公开作品包括图集和视频。通过模拟浏览器请求,抓取并保存作品信息。核心代码包括设置请求参数,解析JSON响应,并将数据保存为JSON文件。程序还处理了昵称中非法字符的问题,降低了耦合度,部分功能被封装到crawler类中。提供了直接运行和打包为exe的选项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

修复一些因为用户昵称中存在windows下文件(夹)名非法字符导致os无法写入读取的bug
简单看了一点python面向对象,将核心功能提取为crawler类,降低耦合
基于crawler类,分出两个文件,一个用于直接在python环境下跑代码,另一个则用于打包好exe一键运行
提供exe版本
代码功能如题,根据快手用户的id来爬取用户所有公开作品,包括图集和视频。
原理:其实就是利用基于chromium内核的浏览器自带的devtools对所有请求进行排查找出包含作品链接的请求,然后用代码模拟请求去获得数据,再根据url下载作品保存就行了,包括一些网站的自动注册登录、操作都可以模拟。这个其实应该算是写过爬虫的同学们都知道,我自己其实不怎么用过python,也没写过什么复杂的python项目,说的不对的还请多多包涵。如果有同学还是想让我讲一下怎么爬的,我考虑再做一期详细的,其实代码应该还是可以看得懂的2333
核心代码
废话不多说,上核心代码

def __crawl_user(self, uid):
if uid.isdigit():
uid = self.__switch_id(uid)

payload = {“operationName”: “privateFeedsQuery”,
“variables”: {“principalId”: uid, “pcursor”: “”, “count”: 999},
“query”: “query privateFeedsQuery($principalId: String, $pcursor: String, $count: Int) {\n privateFeeds(principalId: $principalId, pcursor: $pcursor, count: $c

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值