谁还不是一个lsp呢!带大家去知乎用Python搜刮一波荤段子呀~

本文介绍了如何使用Python爬虫从知乎获取特定问题的回答,并利用PyQt5创建GUI来展示这些内容。首先,通过请求知乎接口获取数据,然后构建了一个简单的GUI应用来浏览抓取的段子。
摘要由CSDN通过智能技术生成

相关文件

关注小编,私信小编领取哟!
当然别忘了一件三连哟~~

对了大家可以关注小编的公众号哟~~
Python日志在这里插入图片描述

开发环境

Python版本:3.6.4
相关模块:
requests模块;
pyqt5模块;
以及一些python自带的模块。

环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。

原理介绍

首先,找个钓段子的问题,例如:

https://www.zhihu.com/question/64745252/answer/1870194928

就是这种:
在这里插入图片描述
获取知乎的回答只需要请求这个接口就行了:

https://www.zhihu.com/node/QuestionAnswerListV2
需要携带的参数也不复杂:

data = {
   
            'method': 'next',
            'params': '{"url_token":%s,"page_size":%s,"offset":%s}' % (question_id, size, offset)
        }

所以我们很快就可以完成一个数据爬取的小脚本了(这是最最最基础的爬虫代码,所以我就不一点点地去讲解啦):

'''知乎段子'''
class zhihuJokesSpider():
    def __init__(self, question_id, **kwargs):
        self.question_id = question_id
        self.headers = {
   
                'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36',
                'Accept-Encoding': 'gzip, deflate'
            }
        self.api_url = 'https://www.zhihu.com/node/QuestionAnswerListV2'
        self.session = requests.Session()
        self.pointer = 0
        self.limits = 2000
    '''开始运行'''
    def 
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值