爬虫自动登陆GitHub

import requests
from bs4 import BeautifulSoup

r1 = requests.get(
    url='https://github.com/login'
)
s1 = BeautifulSoup(r1.text, 'html.parser')
token = s1.find(name='input', attrs={'name': 'authenticity_token'}).get('value')
# 取到token值
r1_cookie_dict = r1.cookies.get_dict()
r2 = requests.post(
    url='https://github.com/session',
    data={
        'commit':'Sign in',
        'utf8':'',
        'authenticity_token':token,
        'login':'1439286684@qq.com',
        'password':'123456'  # 要输入正确的账号密码
    },
    cookies=r1_cookie_dict
)
r2_cookie_dict = r2.cookies.get_dict()
r3 = requests.get(
    url='https://github.com/settings/emails',
    cookies=r2_cookie_dict
)
# 如果打印的内容带有登陆用户的信息就是登陆成功了
print(r3.text)

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值