爬虫的验证码处理

1.我们先进入chrome浏览器的审查页面找到input方法:

为了不少找到一个input,我们ctrl+f的方法输入input来查找

看见我们有6个需要输入的参数。

 除了上面几个的input参数,我们还需要获取验证码的图片,后续要将字母填入进去。

二.安装Pillow库来操作

pip install pillow

 

def get_cap():
    r=session.get('网站名',headers=headers)
    soup=BeautifulSoup(r.text,"lxml")
    cap_url=soup.find("img",id="网页里面的值")["src"]
    with open('jpg','wb')as  f:
        f.write(r.content)
        f.close()
    try:
        im=Image.open('jpg')
        im.show()
        im.close()
    except:
        print(u'请到%s目录找jpg手动输入'%os.path.abspath('jpg'))
        cap=input("")
        return cap

2.使用register函数加上验证码一起,提交post请求

def register(account,email):
    post_url='网站地址'
    postdata={
        'user_login':account,
        'user_email':email,
        'redirect_to':'',
    }
    #调用函数获取验证码数字
    postdata['网页验证码的值']=get_cap()
    register_page=session.post(post_url,data=postdata)
    #输出说200,就表明成功了
    print(register_page.status_code)

输入用户和邮箱来进行登录

import requests
from bs4 import BeautifulSoup
import re
import os
from PIL import Image
if __name__ == '__main__':
    agent='网页地址'
    headers={
        'host':'网页地址去掉http',
        'origin':'网页地址',
        'referer':'网页地址',
        'User_Agent':agent,
    }
    session=requests.session()
    account=''#自己的用户名
    eamil=''#自己的邮箱
    register(account,eamil)

  • 9
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

eqwaak0

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值