Python爬虫闯关-5

第五关

第五关网址:http://www.heibanke.com/lesson/crawler_ex04/

第四关的密码与第三关一样,都是30以内的数字

步骤

  • 我们先登陆网址,然后随便输入一个用户名和密码,看看post请求里带有哪些参数
  • post请求带了五个参数,csf, username, password, captcha_0captcha_1captcha_0 是上一次验证码的uuid,captcha_1 是你输入的验证码
  • 然后我们在第三关的基础上,增加获取验证码的操作
  • 我们发现验证码的链接不是固定的
  • 所以我们需要从当前页面把它的链接抓取出来,查看网页代码,发现链接藏在这里
  • 然后我们就可以获取验证码,然后保存到本地去手动输入啦
  • 当然你也可以选择用打码平台或者机器学习的方法去自动识别

代码

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

import requests
from lxml import etree

class Login(object):
    def __init__(self):
        self.session = requests.Session()
        self.url_login = 'http://www.heibanke.com/accounts/login'
        self.url_test = 'http://www.heibanke.com/lesson/crawler_ex04/'
        self.headers = {
            'Host': 'www.heibanke.com',
            'User-Agent': 'Mozilla/5.0 (iPad; CPU OS 12_0 like Mac OS X) AppleWebKit/604.1.34 (KHTML, like Gecko) CriOS/68.0.3440.83 Mobile/16A5345f Safari/604.1'
        }
        self.data_login = {
            'csrfmiddlewaretoken': '',
            'username': '你的账号',
            'password': '你的密码'
        }
        self.data_test = {
            'csrfmiddlewaretoken': '',
            'username': 'user',
            'password': '',
            'captcha_0': '',
            'captcha_1': ''
        }

    # 获取Cookies
    def get_cookies(self):
        res = self.session.get(url=self.url_login, headers=self.headers)
        self.data_login['csrfmiddlewaretoken'] = res.cookies['csrftoken']

    # 进行账号登陆
    def login(self):
        req= self.session.post(url=self.url_login, data=self.data_login, headers=self.headers)
        html = etree.HTML(req.text)
        #用xpath取得登陆后的关键字
        result = html.xpath('//body/div//h5/text()')
        #如果登陆成功就会提示'欢迎xxx访问我们站点'
        if result:
            print(result[0])
            self.data_test['csrfmiddlewaretoken'] = req.cookies['csrftoken']
        else:
            print('登陆失败')

    # 取得验证码
    def get_captchat(self):
        res = self.session.get(url=self.url_test, headers=self.headers)
        self.data_test['csrfmiddlewaretoken'] = res.cookies['csrftoken']
        html = etree.HTML(res.text)
        # 取得验证码图片的地址
        uuid = html.xpath('//img/@src')[0].split('/')[3]
        self.data_test['captcha_0'] = uuid
        url_captcha = 'http://www.heibanke.com/captcha/image/' + uuid
        # 保存到本地
        res = self.session.get(url=url_captcha, headers=self.headers)
        with open('1.png', 'wb') as pic:
            pic.write(res.content)
        self.data_test['captcha_1'] = input('请输入验证码:')

    # 模拟登陆
    def post_page(self):
        self.get_captchat()
        res = self.session.post(url=self.url_test, data=self.data_test, headers=self.headers)
        html = etree.HTML(res.text)
        content = html.xpath('//h3/text()')[0]
        return content

    def main(self):
        self.get_cookies()
        self.login()
        for x in range(0,31):
            self.data_test['password'] = str(x)
            content = self.post_page()
            if '成功闯关' in content:
                print('密码:%s 正确' %x)
                print(content)
                break
            else:
                print('密码:%s 错误' %x)

if __name__ == "__main__":
    login = Login()
    login.main()

结语:

源码: 点我

欢迎关注我的公众号 疯子的Python笔记

公众号二维码.jpg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫实例教程-代码,是一个指导如何使用Python编写爬虫的教程。下面我将用300字中文来回答这个问题。 这个教程的代码示例主要分为以下几个部分。 第一部分是爬虫的准备工作,包括安装Python和相关的第三方库,如requests、BeautifulSoup等。首先需要安装Python,并配置好相关环境变量。然后使用pip安装requests和BeautifulSoup库,这两个库是编写爬虫时常用的工具。 第二部分是使用requests库发送网络请求,获取网页的HTML源代码。首先需要导入requests库,然后使用get方法发送网络请求,传入要爬取的网页地址。之后可以通过response对象的text属性获取网页的HTML源代码。 第三部分是使用BeautifulSoup库解析HTML源代码,提取出需要的数据。首先需要导入BeautifulSoup库,然后将HTML源代码作为参数传入BeautifulSoup类的构造函数。之后可以使用BeautifulSoup对象的find、findAll等方法,根据HTML标签和属性来提取出需要的数据。 第四部分是保存爬取的数据。可以使用Python自带的文件操作函数,如open、write等,将爬取的数据保存到本地文件中。 最后,还可以通过循环、条件判断等控制结构,以及其他的Python编程技巧,对爬虫代码进行更加复杂的处理和优化。 总的来说,Python爬虫实例教程-代码提供了一个从安装环境到写爬虫代码的全过程。通过学习这些代码示例,可以掌握如何使用Python编写爬虫,以及一些常用的爬虫技巧和工具的使用。希望以上回答可以帮助到你。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值