【Python爬虫】爬取知乎推荐问题(含模拟登陆)
以下代码可以爬取知乎推荐阅读内容的问题,并存储在D:\ \zhihu.txt 中。
其中,为了实现模拟登陆,需要在浏览器完成登录之后,手动复制 Cookie 并代替代码中的 Cookie 。
from requests_html import HTMLSession
import os
import re
import time
os.chdir('D:')
session = HTMLSession()
url = 'https://www.zhihu.com/'
headers = {

本文介绍如何使用Python爬虫进行模拟登陆知乎网站,爬取并保存推荐问题到D:zhihu.txt。核心是通过设置Cookie来实现登录状态的维持。
最低0.47元/天 解锁文章
4693

被折叠的 条评论
为什么被折叠?



