3_scrapy模拟登陆GitHub的两种方法

1. 使用cookies登陆

在爬虫文件中重构start_url方法,模拟登陆GitHub

先通过在网页中登陆自己的账号,获取cookies

start_url方法中构造请求对象携带cookies,传递给引擎再传给parse方法

import scrapy

class GithubSpider(scrapy.Spider):
    name = 'github'
    allowed_domains = ['github.com']
    start_urls = ['https://github.com/ahang1598']

    # 重构start_requests方法,将cookies用字典存储
    def start_requests(self):
        data = '_octo=GH1.1.339554947.1578661733; _ga=GA1.2.57501551.1578661765; _device_id=850ec0241c158fe00087e1c726139c; ...'
        # 将网页cookies转化为字典
        cookies = {x.split('=')[0]:x.split('=')[-1] for x in data.split('; ')}
        # 创建请求对象,传递cookies参数给parse方法
        yield scrapy.Request(
            self.start_urls[0],
            callback=self.parse,
            cookies=cookies
        )

    def parse(self, response):
        tmp = response.xpath('//*[@id="js-pjax-container"]/div[2]/div/div[1]/div/div[4]/div[2]/div[1]/button/text()')
        print(tmp)

2. 发送post请求登陆github

  • 主要是通过scrapy.FormRequest()将表单数据提交
yield scrapy.FormRequest(
            url='https://github.com/session',
            callback=self.login,
            formdata=post_data
)
  • 爬虫文件代码
import scrapy

class GitSpider(scrapy.Spider):
    name = 'git'
    allowed_domains = ['github.com']
    start_urls = ['https://github.com/login']
        
    def parse(self, response):
        
        # 在login文件的response中提取出post的需求数据,也就是变化的数据,目前有token、timestamp、timestamp_secret
        token = response.xpath('//input[@name ="authenticity_token"]/@value').extract_first()
        timestamp = response.xpath('//input[@name = "timestamp"]/@value').extract_first()
        tss = response.xpath('//input[@name = "timestamp_secret"]/@value').extract_first()

        # 组建form表单
        post_data = {
            'commit': 'Sign in',
            'authenticity_token': token, 
            'ga_id': '1057972186.15942244',
            'login': '15xxx',
            'password': 'xxxx',
            'webauthn-support': 'supported',
            'webauthn-iuvpaa-support': 'unsupported',
            'return_to': '',
            'required_field_2db8': '',
            'timestamp': timestamp,
            'timestamp_secret': tss
        }
        # 提交给登陆session网页,然后跳转到登陆后的网页方法
        yield scrapy.FormRequest(
            url='https://github.com/session',
            callback=self.login,
            formdata=post_data
        )
    # 登陆成功后对数据请求,把数据发送给验证方法
    def login(self, response):
        yield scrapy.Request(
            url = 'https://github.com/ahang1598',
            callback=self.login_chack
        )
    # 对登陆成功与否验证
    def login_chack(self, response):
        tmp = response.xpath('//*[@id="js-pjax-container"]/div[2]/div/div[1]/div/div[4]/div[2]/div[1]/button/text()').extract()
        print(tmp)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
A:使用scrapy模拟登陆大众点评网的步骤如下: 1. 在settings.py中添加COOKIES_ENABLED=True,开启cookies支持; 2. 在spider中编写start_requests方法,发送GET请求到大众点评的登录页面,获取登录页面的cookie; 3. 编写parse方法,解析登录页面的源代码,提取出登录时需要的参数、加密token等信息; 4. 编写一个登录方法,使用加密token和传递用户名和密码设置POST请求,将用户凭证提交到登录页面; 5. 再次编写parse方法,使用selenium打开登录页面,成功登录后,提取响应页面的cookie; 6. 在后续的请求中使用该cookie,以保持用户的登录状态。 具体实现代码如下: ```python import scrapy from scrapy.http import FormRequest from selenium import webdriver class DianPing(scrapy.Spider): name = 'dianping' allowed_domains = ['www.dianping.com'] start_urls = ['https://account.dianping.com/login'] def start_requests(self): yield scrapy.Request(url=self.start_urls[0], callback=self.parse, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, }, 'selenium': True }) def parse(self, response): # 获取cookie cookie = response.headers.getlist('Set-Cookie') cookie = [c.decode('utf-8').split(';')[0] for c in cookie] cookie = '; '.join(cookie) # 获取加密token token = response.css('input[name="token"]::attr(value)').extract_first() # 提交登录请求 yield FormRequest.from_response(response, formdata={ 'account': 'your_username', 'password': 'your_password', 'token': token, 'redir': 'https://www.dianping.com', 'rememberMe': 'true', }, headers={ 'Cookie': cookie, }, callback=self.after_login, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, }, 'selenium': True }) def after_login(self, response): # 使用selenium打开登录页面,获取cookie if '登录' not in response.body.decode('utf-8'): driver = response.meta['driver'] driver.get(response.url) cookies = driver.get_cookies() cookie_dict = {} for cookie in cookies: cookie_dict[cookie['name']] = cookie['value'] yield scrapy.Request( url='https://www.dianping.com/', cookies=cookie_dict, callback=self.parse_homepage, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, } } ) def parse_homepage(self, response): print(response.body) ``` 上述代码中,我们通过在start_requests的meta中添加了splash和selenium参数,使得start_requests方法使用splash和selenium的渲染能力来处理请求。在parse方法中,我们获取了登录页面的cookie和加密token,并设置了POST请求,将用户凭证提交到登录页面。在after_login方法中,我们使用selenium打开登录页面,并在parse_homepage方法中解析响应页面的源代码。最后,在后续的请求中使用获取到的cookie即可保持用户的登录状态。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值