import requests
from http.cookiejar import CookieJar
from bs4 import BeautifulSoup
urlBefore = "http://cas.swust.edu.cn/authserver/login"
def getResopnseAfterLogin():
head ={
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36",
}
s = requests.Session()
s.cookies = CookieJar()
r1 = s.get(urlBefore,headers = head)
bsObj1 = BeautifulSoup(r1.text,"html.parser")
#请求登录的页面
lt = bsObj1.find("input",{"name":"lt"})["value"]
execution = bsObj1.find("input",{"name":"execution"})["value"]
#获取网页的流水号
#print(lt)
#print(execution)
params = {
'username':'你的学号',
'password':'你的密码',
'lt':lt,
'dllt':'userNamePasswordLogin',
Python网络爬虫(7)西南科技大学统一认证平台登录
本文介绍了使用Python进行网络爬虫时,如何针对西南科技大学的统一认证平台进行登录操作,详细讲解了过程中遇到的问题及解决策略。
摘要由CSDN通过智能技术生成