用python自动预约图书馆座位

前景提要

由于疫情原因,原来我们市图书馆为了控制人数,搞了一个公众号预约。这样让我一个读书爱好者怎么扛得住啊。图书馆预约界面

需要的工具

  • fiddler
  • python 3.8

第一步——抓包

由于之前我在大学的时候就有用python写脚本抢图书馆座位的经验,所以大概了解这种公共预约平台,其实就一个get或者post请求就能搞定拉。

所以用fiddler抓一下预约的api就好。

你问我为啥不用F12?见下图

这个预约平台不允许其他浏览器访问哦

所以接下来在微信PC端先手动预约成功一下,然后到fiddler中就可以找到api了。
抓取成功

这其中我碰到的坑

报错:只能用微信客户端打开

这个还是比较容易解决的,只要将header中的 “User-Agent” 改成fiddler 中的样子就OK了。

服务器持续返回405

一开始百度,说是将post方式改成get方式。我试了一下不行,而且fiddler提交方式也是post。

后面再百度,说可能是这个链接就不支持post方式

我一想是不是api搞错了,去fiddler一看,果然我复制粘贴少了,赶紧改了,果然服务器返回200,访问成功。

服务器返回未知错误

这个可就哭死我了,看到200本来乐了一下,结果对方服务器居然不认。
服务器返回不认识我的内容
解体思路: 这种情况一般都是服务器看了你提交的信息,然后说:”滚,我看不懂。“这时候看看是不是数据漏了什么,或者格式是不是有问题。

按照这个思路检查代码,果然提交的时候格式不匹配。

我用python提交的是dict类型,但是服务器只认json。

将dict转成json后,果然预约成功了!

预约成功

附上代码

import requests
import time
import json

# 先创建url 和 headers,然后直接request看行不行。
url = 'https://appointment-users.dataesb.com/api/appointment/pub_add/'

header = {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate, br",
    "Accept-Language": "zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7",
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36 NetType/WIFI MicroMessenger/7.0.20.1781(0x6700143B) WindowsWechat(0x6305002e)",
    "Referer": "https://appointment-users.dataesb.com/",
    "unionid": "oF-BrwA9WTNTX2DXed_Rad_pHp4g",
    "Content-Length" : "175",
    "Content-Type": "application/json;charset=UTF-8",
    "Origin": "https://appointment-users.dataesb.com" ,
    "Sec-Fetch-Dest" : "empty" ,
    "Sec-Fetch-Mode" : "cors" ,
    "Sec-Fetch-Site" : "same-site" , 
    "Connection": "keep-alive" ,
    "Host": "appointment-backend-cdn.dataesb.com"
}

post_data = {"subLibId":"1089",
             "scheduleId":1268766,
             "children":0,
             "card":"",
             "cardType":"IDCARD",
             "name":"",
             "phone":"",
             "childrenConfig":False,
             "code":""}

time_str_13 = int(float(time.time()) * 1000) #创建时间戳
param = {
    "timestamp" : time_str_13,
    "callback" : "#/index/1089?counter=1646524800000"
}

# 然后这样执行就好啦
r = requests.post(url, json = post_data, headers = header, params = param, verify = False)
  • 8
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
基于Python图书馆座位自动预约爬虫.zip 图书馆座位自动预约(Python爬虫) 脚本用于利昂图书馆空间管理系统。系统在某一时间点开放预约,但某校某些座位资源紧缺,造成“手慢无”的现象。 通过对页面的抓取分析,实现自动预约次日的座位。 **配置文件说明:** - [user]为用户信息,由于密码不太重要直接明文存储 - [seat]为座位信息,座位号根据某校图书馆规则写的 - [other]为其他配置信息,url为各学校选座系统的网址,*注意以‘/’结尾*,schedule为系统开放时间,以分钟计,如15:00记为900 **其他文件说明:** Seat.py为爬虫及功能实现部分,SeatReservationGUI.py是用Tkinter简单实现的GUI,界面在 Mac OS 排布,Windows可能丑到不能看,请自行调整或使用其他GUI模块。 captcha.py为验证码识别部分,captcha_train.py用来生成训练集,由于该选座系统验证码识别起来难度不大,所以不需要继续添加训练样本。 至于校园网登录,由于某校的Dr.COM登录验证太简单,顺便集成进来了。其他院校请自行移除或修改。 **理论上适用于以下学校:** - 济南大学 - 首都医科大学 - 辽宁大学 - 华中农业大学 - 安徽工程大学 - 闽南师范大学 - 北京联合大学 - 北京师范大学 - 中国人民大学 - 武汉大学 - 武汉音乐学院 - 聊城大学 - 沈阳大学 - 华东政法大学 - 广东外语外贸大学 - 燕山大学

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值