http://blog.csdn.net/pipisorry/article/details/47008981
这篇文章是介绍使用scrapy模拟登录微博,并爬取微博相关内容。关于登录流程为嘛如此设置,请参考[微博登录过程分析]。
截包分析
下载软件Fiddler for .NET2查看相关登录流程信息。运行python程序访问和直接在浏览器中刷新页面都可以在fiddler中找到网络包的相关信息。
Note: fiddler是抓包用的,是独立的工具。类似这种前端登录动作,也可以用casperjs。还可以用浏览器嵌入工具HttpWatch,截包工具如Firefox的插件httpfox。
获取登录入口
微博的登录入口有好几个,其实只要登录的逻辑不变, 其它的入口也是可以的。在微博登录界面分析html源码,获得其登录界面为http://weibo.com/login.php
查看需要的postdata
登录微博前,我们要先post相关数据。打开fiddler2,再登录微博,并查看fiddler2的内容变化
图中webForms所有数据就是我们在模拟登录时需要填入的数据.这些数据中除了su、sp、rsakv、servertime、nonce是经过js处理动态生成的,其它都是个固定值(其实需要的也就只有pubkey、url、pwencode和nonce、pubkey、retcode、exectime、pcid,其它的不用加入postdata,甚至和后面的有些可以不用添加(lz未验证)),可以在代码中写死。所以你的postdata只要提交su、sp、servertime、nonce、url、pwencode和pubkey、retcode、exectime、pcid。
Note: su是js处理后的用户名;sp是js处理后的密码;servertime、nonce 、pubkey都是登录时候需要使用的,用于post信息(sp)的加密;pwnencode=rsa2是weibo登录对密码的加密方式。
获得postdata
当然上面的信息可以用抓包工具抓到,但是我们要在程序中获得这些post信息。
1. 在浏览器登录后,fiddler2会抓到另一个login.sina.com.cn下的js文件http://login.sina.com.cn/sso/prelogin.php?entry=weibo&callback=sinaSSOController.preloginCallBack&su=&rsakt=mod&client=ssologin.js(v1.4.18),这个js文件就是当用户输入用户名时,网页发送用户名到js文件中,js文件处理用户名并返回su、servertime、nonce、url、pwencode和rsakv、retcode、exectime、pcid这些post数据,用于后面的密码加密并提交到后续网站,在下面的textview中可以看到
Note:1. 上面的js地址是在未登录的情况下抓包得到,并且后面的&_=1441377653804%20HTTP/1.1已经被lz省略了,后面的数字实际上是str(time.time()).replace('.', '')这个东西,对于获取postdata没用。
2. 其实手动在浏览器中输入上面的js地址,也会得到相应的post数据输出
可以看到
如果su-为空,得到:
sinaSSOController.preloginCallBack({"retcode":0,"servertime":1441379724,"pcid":"gz-ca74a2cf2705a177abe404a62a1140d71d09","nonce":"89VNFB","pubkey":"EB2A38568661887FA180BDDB5CABD5F21C7BFD59C090CB2D245A87AC253062882729293E5506350508E7F9AA3BB77F4333231490F915F6D63C55FE2F08A49B353F444AD3993CACC02DB784ABBB8E42A9B1BBFFFB38BE18D78E87A0E41B9B8F73A928EE0CCEE1F6739884B9777E4FE9E88A1BBE495927AC4A799B3181D6442443","rsakv":"1330428213","uid":"2835992634","exectime":4})
填入js处理后的用户名得到:
sinaSSOController.preloginCallBack({"retcode":0,"servertime":1441380255,"pcid":"gz-3ab638aed06967c056296dca13e50a4a6333","nonce":"TCEW1Y","pubkey":"EB2A38568661887FA180BDDB5CABD5F21C7BFD59C090CB2D245A87AC253062882729293E5506350508E7F9AA3BB77F4333231490F915F6D63C55FE2F08A49B353F444AD3993CACC02DB784ABBB8E42A9B1BBFFFB38BE18D78E87A0E41B9B8F73A928EE0CCEE1F6739884B9777E4FE9E88A1BBE495927AC4A799B3181D6442443","rsakv":"1330428213","exectime":3})
Note: 登录后的结果,仅仅是少了一个uid,同时所有人的pubkey是一样的,因为是公钥嘛。
模拟js处理用户名及密码
浏览器中输入http://login.sina.com.cn/js/sso/ssologin.js得到这个js文件,复制内容到js编辑器中(lz是在pycharm中创建js文件格式化后查阅的)查看。
Note: 在未登录状态,浏览器中刷新登录界面http://login.sina.com.cn/signup/signin.php?entry=sso这个页面,fiddler2就可以抓到那个ssologin.js文件
查看ssologin.js的makeRequest函数:
var makeRequest = function (username, password, savestate) {
var request = {
entry: me.getEntry(),
gateway: 1,
from: me.from,
savestate: savestate,
useticket: me.useTicket ? 1 : 0
};
if (me.failRedirect) {
me.loginExtraQuery.frd = 1
}
request = objMerge(request, {pagerefer: document.referrer || ""});
request = objMerge(request, me.loginExtraFlag);
request = objMerge(request, me.loginExtraQuery);
request.su = sinaSSOEncoder.base64.encode(urlencode(username));
if (me.service) {
request.service = me.service
}
if ((me.loginType & rsa) && me.servertime && sinaSSOEncoder && sinaSSOEncoder.RSAKey) {
request.servertime = me.servertime;
request.nonce = me.nonce;
request.pwencode = "rsa2";
request.rsakv = me.rsakv;
var RSAKey = new sinaSSOEncoder.RSAKey();
RSAKey.setPublic(me.rsaPubkey, "10001");
password = RSAKey.encrypt([me.servertime, me.nonce].join("\t") + "\n" + password)
} else {
if ((me.loginType & wsse) && me.servertime && sinaSSOEncoder && sinaSSOEncoder.hex_sha1) {
request.servertime = me.servertime;
request.nonce = me.nonce;
request.pwencode = "wsse";
password = sinaSSOEncoder.hex_sha1("" + sinaSSOEncoder.hex_sha1(sinaSSOEncoder.hex_sha1(password)) + me.servertime + me.nonce)
}
}
request.sp = password;
try {
request.sr = window.screen.width + "*" + window.screen.height
} catch (e) {
}
return request
};
从代码中我们可以知道su就是经过html字符转义再转成base64编码
python中我们可以这样转化:
def get_su(self, user_name): ''' 对用户名加密 ''' username_ = urllib.quote(user_name) # html字符转义 return base64.encodestring(username_)[:-1]密码加密
weibo登录对密码有两种加密方式:rsa2与wsse,我们从上面的密码加密方式pwnencode=rsa2可知, js处理走的是这一部分逻辑。(wsse逻辑是通过一个if else判断得到,但我们登录一般是rsa2,wsse是干嘛的没深究)
并且servertime, nonce, pubkey都被用上了,我们只要把这部分js在python中转义就行了。
def get_sp_rsa(self, password, pubkey, servertime, nonce): ''' 对密码加密,http://login.sina.com.cn/js/sso/ssologin.js中makeRequest的python实现 ''' # 公钥pubkey在prelogin得到,固定值 key = rsa.PublicKey(int(pubkey, 16), 65537) # 10001对应的10进制,创建公钥 message = ('\t').join([str(servertime), str(nonce)]) + '\n' + password encropy_pwd = rsa.encrypt(message, key) return binascii.b2a_hex(encropy_pwd) # 将加密信息转换为16进制Note:
1. 0x10001要转化成10进制的65537, 还有要经过servertime + +'\t' + nonce + '\n' + passwd拼接字符串再进行Rsa加密, 最后转成16进制即得到sp.
2. 使用rsa加密要安装rsa拓展包 pip install rsa
模拟登录微博
以上我们分析了如何获取post值,知道哪些数据是需要提交的,也知道怎么处理用户名和密码来获取su、sp,下面讲解如何利用这些信息模拟登录新浪微博。
1. 请求http://login.sina.com.cn/sso/prelogin.php?entry=weibo&callback=sinaSSOController.preloginCallBack&su=&rsakt=mod&client=ssologin.js(v1.4.18),这个相当于登录前请求相关postdata的地址,在返回的response中获取servertime,nonce,pubkey等值
def get_prelogin_data(self): ''' 登录前,获得之后要提交的数据 :return: ''' prelogin_url = globleOptions.prelogin_url post_ori_text = requests.get(prelogin_url).text json_data = re.search(r'\((.*?)\)', post_ori_text).group(1) json_data = json.loads(json_data) prelogin_data = dict(json_data) for key, value in prelogin_data.items(): prelogin_data[key] = str(value) # print(prelogin_data) return prelogin_data2. 模拟js计算加密后的用户名su、模拟js计算加密后的密码sp(加上上一步获取的pubkey、servertime、nonce)
3. 把1中得到的所有postdata与其它固定值su、sp一起提交到http://login.sina.com.cn/sso/login.php?client=ssologin.js(v1.4.18),这个是请求登录的地址
Note: postdata要手动添加这两个数据,它们是1中返回时解析不到的,只有在抓包中看到。
post_data.update({'pwencode': 'rsa2', 'url': r'http://weibo.com/ajaxlogin.php?framelogin=1&callback=parent.sinaSSOController.feedBackUrlCallBack'})这个地址会跳转到passport.weibo.com/wbsso/login/,response会返回我们需要的地址,用正则表达式取出这个地址并请求, 得到如下正则表达式结果则登录成功
http://passport.weibo.com/wbsso/login?ssosavestate=1472919508&url=http%3A%2F%2Fweibo.com%2Fajaxlogin.php%3Fframelogin%3D1%26callback%3Dparent.sinaSSOController.feedBackUrlCallBack%26sudaref%3Dweibo.com&ticket=*****&retcode=0
retcode=101则表示登录失败
def start_requests(self): ''' 获取postdata并提交到登录地址 ''' login_url = globleOptions.login_url username = globleOptions.username password = globleOptions.password post_data = self.get_postdata(username, password) # headers可以不用添加 headers = globleOptions.headers # 将数据提交到登录地址 return [scrapy.http.FormRequest(url=login_url, formdata=post_data, callback=self.access_new_loginurl)]4. 还要请求上面得到的这个长地址(实际中的新登录地址),也就是得到重定位信息后,解析得到最终跳转到的新登录URL打开该URL后,服务器才会自动将用户登陆信息写入cookie,登陆成功。只有写入了cookie,后面的登录才会顺利。
def access_new_loginurl(self, response): ''' 获取新的登录地址并提交request访问, 自动写入cookie, 下次就可以直接访问其它网站了 ''' # print(response.body.decode('gb2312')) new_login_url = re.search(r"location.replace\('(.*?)'\)", response.body).group(1) # print('new_login_url : %s ' % new_login_url) request = scrapy.http.Request(new_login_url) # 如果没有callback,就默认为parse方法 return request5. 这时cookie已经写入,我们再访问微博相关的网页,就可以直接得到登录后的页面数据了
def parse(self, response): ''' 登录后的爬虫,parse方法会自动request遍历start_urls中的url ''' for url in self.start_urls: request = scrapy.http.Request(url=url, callback=self.parse_item) # request = response.request.replace(url=globleOptions.redir_url, callback=self.parse_item) yield request
def parse_item(self, response): ''' 处理items ''' filename = re.split('//|\?', response.url)[1] # print(filename) filename = re.sub('/|\?', '.', filename) + '.html' with open(os.path.join('./TmpFiles', filename), 'wb') as html_file: html_page = response.body html_file.write(html_page)Note:至于代码实现,可以用scrapy,也可以用python自带的urllib(当然这个明显爬取速度更快)
保存请求的cookie
只要把保存的cookie持久化到文件, scrapy每次请求时带上这个cookie就可以了。
from:http://blog.csdn.net/pipisorry/article/details/47008981