打卡学习Python爬虫第六天|处理cookie登录小说网

引言:一些网站不需要登录就能看到信息,但对于需要登录才能看见信息的网站,我们就需要借助cookie,使爬虫能够顺利登录网站,从而获取所需数据。

1、登录后查看页面源代码

并没有我们需要的数据

2、利用抓包工具

右键-->检查或者直接按F12,进入开发者页面,找到数据,拿到其url

 3、编写程序

# 1、登录 --> 得到cookie
# 2、访问 --> 带cookie访问,请求书架url

import requests

sessions = requests.session()
response = sessions.get("https://user.17k.com/ck/author2/shelf?page=1&appKey=2406394919",headers={
    "Cookie":"此处填入自己的cookie" })
print(response.json())

得到想要的数据

 4、保存为json文件

# 保存为json文件
import json
json.dump(response.json(),open("17k.json","w",encoding="utf-8"),ensure_ascii=False,indent=4)
# 读取json文件
json.load(open("17k.json","r",encoding="utf-8"))

完整代码: 

# 1、登录 --> 得到cookie
# 2、访问 --> 带cookie访问,请求书架url

import requests
import json

sessions = requests.session()
response = sessions.get("https://user.17k.com/ck/author2/shelf?page=1&appKey=2406394919",headers={
    "Cookie":"此处填入自己的cookie" })

# 保存为json文件
json.dump(response.json(),open("17k.json","w",encoding="utf-8"),ensure_ascii=False,indent=4)
# 读取json文件
json.load(open("17k.json","r",encoding="utf-8"))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

你好皮~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值