黑板客爬虫---第二关

import requests
import re


url = 'http://www.heibanke.com/lesson/crawler_ex01/'
n = 0

for i in range(30):
    n = i+1
    headers = {
        'Host': 'www.heibanke.com',
        'Referer': 'http: // www.heibanke.com / lesson / crawler_ex01 /',
        'Content - Type': 'application / x - www - form - urlencoded',
    }
    form_data ={'csrfmiddlewaretoken': 'NbRHuYRzAxSf8xvGGVWevYuYY6zDA2L9', 'username':'', 'password': n}
    results = requests.post(url, data=form_data, headers=headers).text
    getdata = re.findall(r'<h3>(.+)</h3>', results)
    print(n, '\n', getdata)

 

运行结果:

........

26 
 ['您输入的密码错误, 请重新输入']
27 
 ['恭喜! 用户成功闯关, 继续你的爬虫之旅吧']
28 
 ['您输入的密码错误, 请重新输入']

.........
 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值