python学校_python+requests模拟登陆 学校选课系统

最近学校让我们选课,每天都有不同的课需要选。。。。然后突发奇想试试用python爬学校选课系统的课程信息

先把自己的浏览器缓存清空,然后在登陆界面按f12 如图:

1352199-20190711185551312-1771224400.png

可以看到登陆时候是需要验证码的,验证码图标打算用方法把它存在桌面,手动输入验证码。

或者可以买一个自动输入验证码的平台1快钱可以帮自动识别100到200次验证码,如果这样做

大概过程就是:

1.找到自动输入验证码的平台

2.阅读该平台的API或者手册

3.用编程语言把验证码图片保存到自己电脑后根据平台格式要求打包,通过url发送过去

4.用返回的数字输入到验证码窗口

这次我就简单做一个需要自己手动输入验证码的模拟登陆脚本算了

回到正题

由于我清除了缓存,所以现在相当于第一次登陆,然后我没有登陆而是直接点了f5刷新,浏览器捕捉到的这个请求

1352199-20190711190316522-1152210293.png

可以看到这个是get请求并且请求头是两个Cookie。

Cookie就是我这台电脑我唯一标识符,当我下次访问这个网页时候它会用这个东西来进一步做一下操作,比如:进一步验证我的身份或者可以利用Cookie无需账号密码直接登陆

这里有两个cookie测试看看需用哪个 下面我再清一次缓存

1352199-20190711191154241-191980684.png

首先上面有两个cookie下面没 。下面是我这边发送给学校的http请求,当我再刷新一次时候

1352199-20190711191312916-875803195.png

可以看到 下面箭头 发送给学校的http请求中多了一个cookie而且是最开始的set-cookie中的第二个,接着我再刷新一次

1352199-20190711191439297-1988859948.png

可以看到发给学校的cookie变成了上次的set-cooki。

那么可以看到图中的 http://xk.qhnu.edu.cn/xsxk/logout.xk 这个网址是用于生成和发送cookie码的

那么如果我们不用浏览器登陆改成用代码登陆那么cookie应该是有用的,毕竟是用来标识我这台电脑的。

虽然不知道这个cookie码有没有用 先获取下来再说吧

这里需要用到python的request库

电脑安装好python后(在官网可以下载python并安装)

在配置好环境变量后可以输入win+r键 后输入cmd 调出cmd命令窗口

然后输入 pip install requests 后会自动安装requests库

接下来 我们需要在桌面新建文件并把后缀名改成 .py

1352199-20190711192724523-1699866290.png

源代码如下:

1 importrequests2

3 get_cookie_url='http://xk.qhnu.edu.cn/xsxk/logout.xk'

4 r =requests.get(get_cookie_url)5 cookie=r.cookies.get_dict()6 print(cookie)#输出cookie

这里调用了requests的get方法,因为刚才看图片上的这个网址用的就是get请求

把结果保存在r里,然后用

.cookies.get_dict()得到cookie值

测试结果如下:

1352199-20190711193312101-493188415.png

可以看到拿到了cookie码

:前面的是cookie ID 后面是cookie的值

登陆

接下来使用抓包工具Wireshark 监听经过这个网页的流量,也可以用刚才的f12看

输入账号密码和验证码后点击登陆 抓取到以下数据

1352199-20190711193804594-1600859565.png

登陆的时候时候给 http://xk.qhnu.edu.cn/xsxk/loadData.xk(没有截图到,可以自己抓包看到) 这个网址发送了数据并且发送头包含cookie等信息

并且发送给这个网页用的方法是get(没有截图到,可以自己抓包看到)

发送的数据变量有

method

username

password

verifcode

那么后面三个就应该是账号密码验证码了

通过上面提供的信息,我们可以伪造一个发给这个网址的请求

代码如下

check_header={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36','Host': 'xk.qhnu.edu.cn',

}

params={'method':'checkLogin','username':自己的学号,'password':自己的账号,

}

check_url='http://xk.qhnu.edu.cn/xsxk/loadData.xk'r= requests.get(check_url,params=params,cookies=cookie)#cookie由之前的代码获得

但是可以看到我们缺少了一个verifcode变量用来存放所输入的正确验证码值,因为我还要想办法把验证码的图片保存到桌面,方便看到。

这里我用谷歌浏览器f12的定位功能定位到验证码图片,并且显示了相对应的html代码

1352199-20190711195958296-1307089931.png

从图中可以看到 这个验证码是由src中的网址生成的,而且d=后面是一串数字,当我再刷新时候这串数字也发生变化

看这串数字不难发现它是一串格林尼治时间,也就是说我们要获得验证码就需要访问src中的网页,并且这个网址需要传递

一串数字,这串数字是格林尼治时间。我猜是为了做随机生成的吧

那么我们用get方法来访问这个网址并且将访问的数据保存到桌面

代码:

1 importtime2

3 jpg_url = 'http://xk.qhnu.edu.cn/xsxk/servlet/ImageServlet?d='+str(int(time.time())*1000)4

5 content = requests.get(jpg_url,cookies=cookie).content6 with open('demo.jpg', 'wb') as fp:7 fp.write(content)

运行后桌面生成了验证码的图片

1352199-20190711200553483-1573124580.png

在获取这个验证码之前我用抓包工具看了一下 往这个地址发送的数据中又包括了cookie,所以我加上cookie了

在不加cookie的话 就算获取到了验证码图片 在进行模拟登陆时候根据桌面上的图登陆总是验证码错误

在折腾了一段时间后发现验证码的生成会和我的cookie相关联,也就是说,验证码的生成不仅用到格林尼治时间还用到我的cooki

并将验证码与我的cookie绑定,一一对应

然后通过

while(True):

code= input('请输入验证码:')

datacode=str(code)

params['verifyCode']=datacode

r= requests.get(check_url,params=params,cookies=cookie)if re.search('true',r.text):print ('验证码正确......')break

else:print ('验证码错误,请重新输入......')

date['verifyCode']=datacode

将验证码加入到前面的date中,发送给/xsxk/loadData.xk,在发送成功后查看返回信息发现验会有true字符串或者false,那么我就可以利用这个来验证我是不是正确

这样用到的re库 需要导入

回到刚才的登陆

继续看抓包的数据,发现了post方法,一般来说post方法是真正的登陆窗口

1352199-20190711201343278-1479220867.png

post方法前面的 get /xsxk/loadDate...... 就是我们前面实现的get,现应该实现post真正的登陆了

在查看post发送的数据中包含了头信息,其中包括cookie 和账号密码所以我们用requests的post方法继续伪造请求

在post结束后学校服务器会返回一个302 found的http状态码 这表示浏览器将我的数据发送后,会重新跳转到另外一个网页

不过requests是可以自动跳转的,不需要担心

代码

log_header={ 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','Origin':'http://xk.qhnu.edu.cn','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36','Referer':'http://xk.qhnu.edu.cn/xsxk/logout.xk','Accept-Encoding':'gzip, deflate','Accept-Language':'zh-CN,zh;q=0.9','Host': 'xk.qhnu.edu.cn','Cache-Control': 'max-age=0','Upgrade-Insecure-Requests': '1'}

date={'username':自己的学号,'password':自己的密码,

}

log_url='http://xk.qhnu.edu.cn/xsxk/login.xk'r=requests.post(log_url,data=date,headers=log_header,cookies=cookie)#传递的参数cooki由之前的代码获得

其中的 date和log_header都是通过抓包看到的 这个网页需要哪些数据。

代码写好后 运行并且抓包发现 与用网页登陆抓取的包大致相同,通过多次修改可以总结如下

通过用网页登陆抓包发现登陆学校的网址有一下步骤

1.在清空缓存,刷新时(即第一次登陆时),会先向xsxk/logout.xk发送cookie

2.在get验证码的所需要的数据中 通过抓包发现需要用到第一步的cookie

3.在登陆前需要向xsxk/loadData.xk发送自己的账号密码和验证码和cookie

4.登陆时用的是post方法,并且还需要将自己的账号密码和之前的验证码和cookie发送一次 如果没有完成第三步那么无论怎么登陆都失败

完整代码如下

importtimeimportrequestsimportrefrom bs4 import BeautifulSoup #获取解析网页的库

username=input("账号")

password=input("密码")

get_cookie_url='http://xk.qhnu.edu.cn/xsxk/logout.xk'jpg_url= 'http://xk.qhnu.edu.cn/xsxk/servlet/ImageServlet?d='+str(int(time.time())*1000)

check_url='http://xk.qhnu.edu.cn/xsxk/loadData.xk'log_url='http://xk.qhnu.edu.cn/xsxk/login.xk'get_cookie_header={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36'}

check_header={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36','Host': 'xk.qhnu.edu.cn',

}

params={'method':'checkLogin','username':username,'password':password,

}

log_header={'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','Origin':'http://xk.qhnu.edu.cn','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36','Referer':'http://xk.qhnu.edu.cn/xsxk/logout.xk','Accept-Encoding':'gzip, deflate','Accept-Language':'zh-CN,zh;q=0.9','Host': 'xk.qhnu.edu.cn','Cache-Control': 'max-age=0','Upgrade-Insecure-Requests': '1'}

date={'username':username,'password':password,

}

r=requests.get(get_cookie_url)

cookie=r.cookies.get_dict()#print(cookie) 输出cookie

content= requests.get(jpg_url,cookies=cookie).content

with open('demo.jpg', 'wb') as fp:

fp.write(content)while(True):

code= input('请输入验证码:')

datacode=str(code)

params['verifyCode']=datacode

r= requests.get(check_url,params=params,cookies=cookie)if re.search('true',r.text):print ('验证码正确......')break

else:print ('验证码错误,请重新输入......')

date['verifyCode']=datacode

r=requests.post(log_url,data=date,headers=log_header,cookies=cookie)#print(r.text)获得网址的源代码

html=BeautifulSoup(r.text,'lxml')

tagList=html.find('b')print('#############################################################')print('进入选课系统成功:')print(tagList.get_text())print('#############################################################')

在这里用了另外一个库 用于解析所获取的登陆后网页源代码

总的来说就是 先用浏览器和抓包工具,浏览器多次登陆,用抓包工具和浏览器的f12查看登陆前经历了哪些步骤,哪些网页,每个网页分别发送了哪些数据,用的是get方法还是post方法

在知道后,用代码将所需要的数据写出来并保存后用requests库的get方法post方法模拟发送数据给学校服务器。最后获得登陆后的网页源代码

不过。。。我在获得源代码后发现html中的iframe标签显示的是选课的内容,但是我用于分析网页代码的库是BeautifulSoup

它不支持分析iframe内容。。。白忙活了那么久。

通过在网上查找信息发现selenium这个库支持分析iframe标签的内容

所以接下来就去学习用这个库去获取学习的选课信息并且自动选课

下次就放用selenium做爬虫的过程

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值