Python爬虫登录大学官网

Python爬虫登录大学官网

  通过python登录大学官网(当然首先要有账号密码),内容包括:如何使用chrome查看网页信息和网络请求、分析网站通过js加密用户密码的方式、使用python登录网站。(不同官网的登录方式不尽相同,本文仅供参考)

一、使用Chrome查看网页信息和网络请求

  首先打开所要解析的网站,点击F12(要打开Fn)或者右键->检查。本次主要用到Element、Source、Network三个功能。

1.1 Element功能模块

  点击Element可以查看网页html源码,点击ctrl+f可以在箭头处中查找源码中的匹配字符等。
在这里插入图片描述

1.2 Network功能模块

  点击Network可以查看网页与服务器端的交互信息,本文中主要用来查看发送的登录请求。
  headers中可查看请求头信息,payload中的From Data查看网页向服务器请求所提交的内容。可以看到请求内容中的password是经过了加密的(输入的测试用错误密码是1234)。
在这里插入图片描述

1.3 Sources功能模块

  查看网页的组成,包括css、js、image等。左边是网页的源码文件夹(右键可以查找匹配字符串),中间是所选文件的源码区(点击花括号可以格式化源码(pretty print)),右边是调试js代码时所用到的监控区。
在这里插入图片描述

二、分析网站js加密方式

2.1 查找加密函数并设置断点

  查找加密方式简单粗暴的方式就是直接在文件夹中查找“encrypt”(加密)。找到响应的函数,并点击该行js代码设置断点。
在这里插入图片描述

2.2 用错误密码调试找到所有js加密的代码

  设置完断点之后,输入错误密码,点击登录。程序会在断点处停止,右上角(或者左下角)控制调试区分别是继续运行、跳过下个函数、进入下个函数、跳出当前函数、逐步运行。通过call stack可以看到函数的调用次序。
在这里插入图片描述
  查看调用栈的函数,发现最顶层函数_etd2中参数就是输入的密码,另一个参数是pwdDefaultEncryptSalt(在html文件中查找字符串可以发现就在html中获取)。通过调用栈右侧可以看到加密用到的js文件。
在这里插入图片描述
  在这个js文件中查找etd2便可找到该函数的定义,在该函数中设置断点并继续运行。进入这个函数后逐步运行发现该函数返回值像是请求中的密码。记录这个返回值。
在这里插入图片描述
  点击继续运行,js代码运行完了,网页显示密码错误(因为输入的是错误的密码)。在network中查看login请求中的payload中的password值,发现与刚才的返回值相同,所以etd2就是用来加密的最顶层js函数。至此已经完全找到了加密的js代码,可以将加密所用的js文件保存下来,用python调用js代码(当然需要稍加修改,具体可以看渗透测试-python破解前端js加密
)etd2函数获取返回值。
在这里插入图片描述

三、使用python登录网站

  这部分暂时没写,我的,在参考文献里有如何使用python运行js并且通过session登录网页,有兴趣可以自己看看。

参考文献:

python3下使用requests实现模拟用户登录 —— 基础篇(马蜂窝)
python3下使用requests模拟用户登录 —— 中级篇(百度云俱乐部)
python版 —— 验证码校验 打码兔平台的使用介绍
一次完整的渗透测试流程
渗透测试-python破解前端js加密
获取请求中的It,dllt

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫可以用来抓取网络上的各种数据,包括大学排名信息。要爬取大学排名,通常会涉及到网站的数据结构和反爬虫策略,这里是一个简化的步骤概述: 1. **目标选择**:确定要抓取的具体大学排名数据来源,如QS世界大学排名、泰晤士高等教育排名等官方网站。 2. **分析网页结构**:使用浏览器开发者工具(如Chrome的开发者工具)查看HTML源码,理解数据是如何在页面上组织的,比如可能在`<table>`或`<div>`标签中。 3. **选择合适的库**:Python有许多库可用于爬虫,如BeautifulSoup、Scrapy或者更高级的Selenium(用于处理JavaScript渲染的内容)。对于简单的静态网页,BeautifulSoup通常足够。 4. **编写代码**:使用Python的requests库发送HTTP请求获取页面内容,然后解析HTML文档提取你需要的信息。例如,你可以查找特定的排名元素,如表格中的行或段落。 ```python import requests from bs4 import BeautifulSoup url = 'https://www.example.com/university-rankings' # 替换为实际的大学排名URL response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 查找特定的排名元素 rank_elements = soup.find_all('div', class_='rank-item') # 假设这些是包含排名的数据 ``` 5. **数据清洗和存储**:将提取到的数据进行清洗,去掉无关的HTML标签,可能还需要处理缺失值和格式转换。可以保存到CSV、JSON或数据库中。 6. **处理反爬措施**:确保遵守网站的robots.txt文件,设置合理的User-Agent,可能需要使用代理IP或处理cookies和session,以防被网站封锁。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值