python 模拟用户点击浏览器_Python实现模拟浏览器登录操作

最近帮朋友写一个脚本,用来刷新信息。具体的操作就是模拟用户登录之后,在用户的信息发布页面,对每一个页面,在固定的时间间隔内点击刷新按钮。我使用Python3 和 Requests库来实现了这个功能。Requests 是用基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库。它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求。我们使用他的原因是他能更加方便的保存Session信息。

流程:

1. 解析页面表单构成,获取请求的头信息

2. 模拟浏览器登录

3. 保存Session,进入用户中心。

4. 解析页面,获取需要更新的页面。

5. 对每个页面的刷新按钮发起请求。

6. 休眠计时。

解析登录页面:

首先打开登录页面,通过chrome来审查表单结构与Request Headers的信息。根据信息来构建登陆时的提交头文件与登录信息。

模拟浏览器发起请求的头信息:

headers1 = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',

'Content-Type': 'application/x-www-form-urlencoded',

'Origin': 'https://www.shicheng.one',

'Referer': 'https://www.shicheng.one/user/login',

'Upgrade-Insecure-Requests': '1'

}

用户登录表单,其中csrf是用户每次发起请求时动态生成的:

payload = {

"LoginForm[username]": "username",

"LoginForm[password]": "password",

"LoginForm[rememberMe]": 0,

"_csrf": "csrf"

}

动态获取CSRF

当我们每次向目标地址发起一个Request请求时,表单内部会动态生成一个csrf口令,并将其与html页面内容一起返回,因此我们可以通过解析页面内容来获取csrf口令。这里我们使用HTMLlParser来找到_csrf标签对应的内容。

class Myparser(HTMLParser):

def __init__(self):

HTMLParser.__init__(self)

self.values = 0

def handle_starttag(self, tag, attrs):

def _attr(attrlist, attrname):

for each in attrlist:

if attrname == each[0]:

return each[1]

return None

if tag == 'input' and _attr(attrs, 'name') == '_csrf':

self.values = _attr(attrs, 'value')

def get_csrf(login):

data = login.text

par = Myparser()

par.feed(data)

return par.values

模拟浏览器登录

我们使用requests库实例化一个会话,然后使用我们构建的表单内容与Headers来进行登录,其中csrf是动态获取的。这样我们的信息就会被保存在这个对象中。

session_requests = requests.Session()

login = session_requests.get(login_url)

csrf = get_csrf(login)

payload["_csrf"] = csrf

login = session_requests.post(login_url, data=payload, headers=headers1)

为了检查是否请求成功,可以查看请求发回的状态码

login.status_code

解析用户页面并发起请求

在访问用户信息页面并刷新时,我们使用下面的头文件发起请求,其中referer是根据我们要访问的地址动态更新的。

headers2 = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',

'Content-Type': 'application/x-www-form-urlencoded',

'Referer': '',

'Upgrade-Insecure-Requests': '1'

}

home是我们要访问的用户信息页面,我们从中提取列表中的网址,并解析出id。其中每个页面的内的刷新按钮是与对应的js相关联的,因为我们通过前面固定的网址与id动态构建出刷新请求的地址。最后我们按照刷新的cd,使用更新后的Headers发起刷新请求。

getstat = session_requests.get(home)

urls = list(set(re.findall(pattern1, getstat.text)))

ids = [re.findall(pattern2, url)[1] for url in urls]

refresh = ["https://www.shicheng.one/node/refresh?id=" + i for i in ids]

while True:

for r, url in zip(refresh, urls):

headers2['Referer'] = url

getstat = session_requests.get(r, headers=headers2)

print('Refresh at ' + time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()))

time.sleep(6 * 60 * 60)

完整代码

# coding: utf8

import re

import time

import requests

from html.parser import HTMLParser

class Myparser(HTMLParser):

def __init__(self):

HTMLParser.__init__(self)

self.values = 0

def handle_starttag(self, tag, attrs):

def _attr(attrlist, attrname):

for each in attrlist:

if attrname == each[0]:

return each[1]

return None

if tag == 'input' and _attr(attrs, 'name') == '_csrf':

self.values = _attr(attrs, 'value')

def get_csrf(login):

data = login.text

par = Myparser()

par.feed(data)

return par.values

def run():

print("Press 'Ctrl+C' to exit...")

rule1 = r'http://www\.shicheng\.one/s1/\d+'

pattern1 = re.compile(rule1)

pattern2 = re.compile(r'\d+')

login_url = 'https://www.shicheng.one/user/login'

home = 'https://www.shicheng.one/member/index?id=16973'

headers1 = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',

'Content-Type': 'application/x-www-form-urlencoded',

'Origin': 'https://www.shicheng.one',

'Referer': 'https://www.shicheng.one/user/login',

'Upgrade-Insecure-Requests': '1'

}

headers2 = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',

'Content-Type': 'application/x-www-form-urlencoded',

'Referer': '',

'Upgrade-Insecure-Requests': '1'

}

payload = {

"LoginForm[username]": "username",

"LoginForm[password]": "password",

"LoginForm[rememberMe]": 0,

"_csrf": ""

}

session_requests = requests.Session()

login = session_requests.get(login_url)

csrf = get_csrf(login)

payload["_csrf"] = csrf

login = session_requests.post(login_url, data=payload, headers=headers1)

getstat = session_requests.get(home)

urls = list(set(re.findall(pattern1, getstat.text)))

ids = [re.findall(pattern2, url)[1] for url in urls]

refresh = ["https://www.shicheng.one/node/refresh?id=" + i for i in ids]

while True:

for r, url in zip(refresh, urls):

headers2['Referer'] = url

getstat = session_requests.get(r, headers=headers2)

print('Refresh at ' + time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()))

time.sleep(6 * 60 * 60)

if __name__ == '__main__':

run()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值