python爬虫之cookie与URLErroe异常处理

本文探讨了Python爬虫中如何处理Cookie,包括Opener和Cookielib的使用,以及如何保存和读取Cookie。同时,介绍了面对URLError异常,特别是404和11001状态码时的处理策略,如使用代理IP解决IP被封问题。
摘要由CSDN通过智能技术生成

一、cookie

Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密).

比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。

Opener

当你获取一个URL你使用一个opener(一个urlib.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url, data,timeout.

如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置

Cookielib

cookielib模块的主要作用是提供可存储cookie的对象,以便于与urllib模块配合使用来访问Internet资源。Cookielib模块非常强大,我们可以利用本模块的CookieJar类的对像来捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LwPCookieJar。

案例:
使用账号密码登录到指定页面。

from urllib.request import Request,build_opener,urlopen,HTTPCookieProcessor
from urllib.parse import urlencode
from fake_useragent import UserAgent
#登录
login_url = "https://movie.douban.com/"
headers = {
   "User-Agent":UserAgent().random}
form_data = {
   
    "user":"17703181473",
    "password":"123456"
}

f_data = urlencode(form_data).encode()  #转码
request = Request(login_url,headers=headers,data=f_data)
handler = HTTPCookieProcessor()
opener = build_opener(handler)
response = opener.open(request)

#访问页面
info_url = "https://movie.douban.com/"
request = Request
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黎明之道

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值