【爬虫进阶】易班登录加密逆向

前言

demo比较简单,逆向难点:rsa加密,图片验证码

分析

在这里插入图片描述我们模拟登录,请求一下
在这里插入图片描述
红框内是我们提交的参数,password看上去应该是rsa加密,captcha是验证码,keysTime是一个时间戳,account是手机号。
在这里插入图片描述
全局搜索一个参数,点进去找找加密位置。
在这里插入图片描述
找到加密位置,下断点,再次请求后,开始调式。

在这里插入图片描述
搜索g_param,找到time生成方法,看上去像是写在网页里面,在网页上搜索一下。

在这里插入图片描述
果然是保存在网页中,上面应该是rsa公钥,一举两得,下面接着逆向password。
在这里插入图片描述
搜索password,找到加密位置。
在这里插入图片描述
继续跟进。
在这里插入图片描述
这里有两种方法:1,把加密方法全部扣下来 2,安装node第三方库node-jsencrypt,建议使用第二种,方便省事。
在这里插入图片描述

到此为止加密参数就算全部解析完毕,下面讲验证码。

在这里插入图片描述
随机提取一个验证码,保存到本地。

在这里插入图片描述
因为验证码不算复杂,用ddddocr识别即可,识别率还可以。

代码过程

首先我们把网页中的信息提取出来:key、key_time、图片链接

import requests
from lxml import etree

session = requests.session()
headers = {
    'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36'
}

def get_params():
    url = 'https://www.yiban.cn/login?go=https%3A%2F%2Fwww.yiban.cn%2F'
    res = session.get(url,headers=headers).text
    html = etree.HTML(res)
    key = html.xpath('//div[@class="login-cont"]/ul/@data-keys')[0] # 秘钥
    time = html.xpath('//div[@class="login-cont"]/ul/@data-keys-time')[0] #时间戳
    img = html.xpath('//img[@class="captcha"]/@src')[0]
    img_url = 'https://www.yiban.cn/' + img  # 图片链接
    img_res = requests.get(img_url).content 
    flie_name = './img/VerifyCode.png' # 路径
    
    # 保存验证码
    with open(flie_name, 'wb') as f:
        f.write(img_res)
        
    print(key,time,img_url)
    return key, time

拿到上面数据之后,该加密的加密,该识别的识别

import ddddocr
import requests
from lxml import etree
import execjs
from loguru import logger

logger.add("./logs/yiban.log", rotation='00:00', level="WARNING", encoding='utf-8')

session = requests.session()
headers = {
    'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36',
}

def recognize(image):
    ocr = ddddocr.DdddOcr()
    with open(image, 'rb') as f:
        img_bytes = f.read()
    res = ocr.classification(img_bytes)

    return res

def spider(user,pwd):
    url = 'https://www.yiban.cn/login/doLoginAjax'
    key,time = get_params() 
    captcha = recognize('./img/VerifyCode.png')  # 识别验证码
    logger.debug(f'验证码:{captcha}')
    with open('yiban.js','r') as f:
        f_data = f.read()
    js_data = execjs.compile(f_data).call('EncryptPassword',key,pwd)  # js加密
    logger.debug(f'密码加密:{js_data}')
    data = {
        'account': user,
        'password':js_data,
        'captcha': captcha,
        'keysTime': time,
    }
    res = session.post(url,headers=headers,data=data).json()
    logger.debug(f'结果:{res}')

时间戳后台会验证,所以要一定用session

結果

因为我没注册账号,为了测试,随便填写的手机号,报以下错误,说明逆向思路没问题。
在这里插入图片描述
如果不用session,结果会怎样呢?

在这里插入图片描述
不多解释,不懂的,可以看下我那篇讲解session的文章,大家找一下。

完整代码

import ddddocr
import requests
from lxml import etree
import execjs
from loguru import logger

logger.add("./logs/yiban.log", rotation='00:00', level="WARNING", encoding='utf-8')

session = requests.session()
headers = {
    'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36',
}


def recognize(image):
    ocr = ddddocr.DdddOcr()
    with open(image, 'rb') as f:
        img_bytes = f.read()
    res = ocr.classification(img_bytes)

    return res

def get_params():
    url = 'https://www.yiban.cn/login?go=https%3A%2F%2Fwww.yiban.cn%2F'
    res = session.get(url,headers=headers).text
    html = etree.HTML(res)
    key = html.xpath('//div[@class="login-cont"]/ul/@data-keys')[0] # 秘钥
    time = html.xpath('//div[@class="login-cont"]/ul/@data-keys-time')[0] #时间戳
    img = html.xpath('//img[@class="captcha"]/@src')[0]
    img_url = 'https://www.yiban.cn/' + img  # 图片链接
    img_res = requests.get(img_url).content
    flie_name = './img/VerifyCode.png' # 路径

    # 保存验证码
    with open(flie_name, 'wb') as f:
        f.write(img_res)

    logger.debug(f'key:{key},key_time:{time},img_url:{img_url}')
    return key, time

def spider(user,pwd):
    url = 'https://www.yiban.cn/login/doLoginAjax'
    key,time = get_params()
    captcha = recognize('./img/VerifyCode.png')
    logger.debug(f'验证码:{captcha}')
    with open('yiban.js','r') as f:
        f_data = f.read()
    js_data = execjs.compile(f_data).call('EncryptPassword',key,pwd)
    logger.debug(f'密码加密:{js_data}')
    data = {
        'account': user,
        'password':js_data,
        'captcha': captcha,
        'keysTime': time,
    }
    res = requests.post(url,headers=headers,data=data).json()
    logger.debug(f'结果:{res}')


user = '18576543215'
pwd = '######'
spider(user,pwd)

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
在Python爬虫逆向进阶中,有许多技术和工具可以帮助实现逆向操作。其中一个重要的工具是Selenium。Selenium是一个用于自动化浏览器操作的工具,它可以模拟用户在浏览器中的行为,如点击、填写表单等。通过使用Selenium,可以实现一些需要模拟用户行为的爬虫任务,例如登录网站、获取动态页面的数据等。在逆向方面,Selenium还可以帮助我们解密一些加密的参数、破解一些验证码等。除了Selenium,还有其他一些工具和技术可以用于Python爬虫逆向进阶,如使用JS解密、破解cookie、破解token等。这些技术和工具可以帮助我们更好地理解和分析网站的加密算法,从而实现一些逆向操作。总的来说,Python爬虫逆向进阶是一个非常有挑战性但也非常有趣的领域,需要我们不断学习和探索新的技术和方法。<span class="em">1</span><span class="em">2</span> #### 引用[.reference_title] - *1* [JSCrack:Python爬虫进阶 JS 解密逆向实战](https://download.csdn.net/download/weixin_42123191/18184314)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [Python网络爬虫进阶教程.pdf](https://download.csdn.net/download/dwf1354046363/20818516)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值