之前使用 Python自带urllib2库做了一个简单的模拟登陆 人人网 的功能。发现很多网站都比人人网的登陆流程复杂的多,需要好好抓包研究每一步请求过程及需要的Cookie,urllib2的cookie处理器就有点相形见绌了。很多都需要自己实现。
而由于urllib2本身的使用起来不方便,所以改用第三方库requests库,这个库也是使用很广泛的一个Python库。
当然了,每个网站的登陆流程略有不同,代码不可能完全通用,需要自己抓包分析过程,(使用HTTPFox等),弄懂原理,然后稍作修改。
# -*- coding:utf-8 -*-
import urllib
import ssl
import requests
g_cookie = ''
def login_web():
url = 'https://www.xxx.com'
#verify和allow_redirects看需要,我这边需要取到每一步的cookie所以禁用重定向。前面的get请求一般都是为了获取Cookie
resp = requests.get(url, verify=