scrapy使用cookie和form表单模拟登陆

使用场景:

有一些页面,必须要在登陆情况下才能展示,比如个人页面。当用户登陆成功后,会在浏览器端保存一个cookie的值,有了这个值,就可以不用每次都进行登陆,就可以直接访问个人页面了。

具体步骤如下:

修改settings:

代码:

USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.6261.95 Safari/537.36"


# Obey robots.txt rules
# ROBOTSTXT_OBEY = True

进入某一个网站:

登陆后,进入个人页面:(假设我想获取余额这个值)

打开F12.,获取cookie:复制下来

新建爬虫文件:(将cookie放在temp中,并且循环得到 json格式的内容并通过scrapy.Request发送)

代码:

import scrapy


class NewSpider(scrapy.Spider):
    name = "cgj"
    allowed_domains = ["***.com"]
    start_urls = ["https://www.***.com/Home/User/index.html"]

    def start_requests(self):
        url = self.start_urls[0]
        temp = '*********此处是cookie的内容*************'
        cookies = {data.split('=')[0]: data.split('=')[1] for data in temp.split(';')}
        yield scrapy.Request(
            url=url,
            callback=self.parse,
            cookies=cookies
        )

    def parse(self, response):
        yuer = response.xpath('/html/body/div[6]/ul[1]/li/font[1]/b/text()').get()
        print("yuer===="+yuer)

以上是自己使用浏览器登陆的情况下,再模拟cookie进行获取页面数据的过程。如果要自己模拟用户名和密码的输入,该如何实现?

使用scrapy.FormRequest 

对应的php服务器端代码:(特别注意:login.php之后是直接进入my.php,所以爬虫文件不需要再进入my.php去获取数据,而直接在前往login.php之后直接根据返回的页面进行获取数据)

index.html:
<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Login Form</title>
</head>
<body>
<h2>Login Form</h2>
<form action="login.php" method="post">
    <label for="username">Username:</label><br>
    <input type="text" id="username" name="username" value="admin"><br>
    <label for="password">Password:</label><br>
    <input type="password" id="password" name="password" value="123456"><br><br>
    <input type="submit" value="Submit">
</form>
</body>
</html>



login.php
<?php
// 获取从表单提交的用户名和密码
$username = $_POST['username'] ?? '';
$password = $_POST['password'] ?? '';

// 假设正确的用户名和密码是 admin 和 123455
$correct_username = 'admin';
$correct_password = '123456';

// 验证用户名和密码
if ($username === $correct_username && $password === $correct_password) {
    // 如果验证通过,设置一个会话变量来存储用户名
    session_start();
    $_SESSION['username'] = $username;

    // 跳转到 my.html 页面
    header('Location: my.php');
    exit;
} else {
    // 如果验证不通过,可以返回到登录页面或者显示错误信息
    echo 'Invalid username or password. Please try again.';
}
?>



my.php
<!-- my.html -->

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Welcome</title>
</head>
<body>
<h2>Welcome</h2>
<?php
    session_start();
    // 检查会话中是否有存储的用户名
    if (isset($_SESSION['username'])) {
        $username = $_SESSION['username'];
        echo "<p>Hello,<div id='username'>$username!!</div> </p>";
echo "<p>This is your personalized page.</p>";
} else {
// 如果没有存储的用户名,可以返回到登录页面或者显示错误信息
echo "<p>Access denied. Please login first.</p>";
// 如果需要,可以提供返回登录页面的链接
// echo '<p><a href="index.html">Go back to login</a></p>';
}
?>
</body>
</html>

  • 7
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
A:使用scrapy模拟登陆大众点评网的步骤如下: 1. 在settings.py中添加COOKIES_ENABLED=True,开启cookies支持; 2. 在spider中编写start_requests方法,发送GET请求到大众点评的登录页面,获取登录页面的cookie; 3. 编写parse方法,解析登录页面的源代码,提取出登录时需要的参数、加密token等信息; 4. 编写一个登录方法,使用加密token和传递用户名和密码设置POST请求,将用户凭证提交到登录页面; 5. 再次编写parse方法,使用selenium打开登录页面,成功登录后,提取响应页面的cookie; 6. 在后续的请求中使用cookie,以保持用户的登录状态。 具体实现代码如下: ```python import scrapy from scrapy.http import FormRequest from selenium import webdriver class DianPing(scrapy.Spider): name = 'dianping' allowed_domains = ['www.dianping.com'] start_urls = ['https://account.dianping.com/login'] def start_requests(self): yield scrapy.Request(url=self.start_urls[0], callback=self.parse, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, }, 'selenium': True }) def parse(self, response): # 获取cookie cookie = response.headers.getlist('Set-Cookie') cookie = [c.decode('utf-8').split(';')[0] for c in cookie] cookie = '; '.join(cookie) # 获取加密token token = response.css('input[name="token"]::attr(value)').extract_first() # 提交登录请求 yield FormRequest.from_response(response, formdata={ 'account': 'your_username', 'password': 'your_password', 'token': token, 'redir': 'https://www.dianping.com', 'rememberMe': 'true', }, headers={ 'Cookie': cookie, }, callback=self.after_login, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, }, 'selenium': True }) def after_login(self, response): # 使用selenium打开登录页面,获取cookie if '登录' not in response.body.decode('utf-8'): driver = response.meta['driver'] driver.get(response.url) cookies = driver.get_cookies() cookie_dict = {} for cookie in cookies: cookie_dict[cookie['name']] = cookie['value'] yield scrapy.Request( url='https://www.dianping.com/', cookies=cookie_dict, callback=self.parse_homepage, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, } } ) def parse_homepage(self, response): print(response.body) ``` 上述代码中,我们通过在start_requests的meta中添加了splash和selenium参数,使得start_requests方法使用splash和selenium的渲染能力来处理请求。在parse方法中,我们获取了登录页面的cookie和加密token,并设置了POST请求,将用户凭证提交到登录页面。在after_login方法中,我们使用selenium打开登录页面,并在parse_homepage方法中解析响应页面的源代码。最后,在后续的请求中使用获取到的cookie即可保持用户的登录状态。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值