Scrapy--设置代理ip

本次使用的代理Ip是蘑菇代理,数据库是redis

1.settings配置

"""REDIS 配置链接"""
REDIS_URL = "redis://127.0.0.1:6379"

RETRY_TIMES = 2

2.写入工具类

import requests
import json
import time
import redis
from 项目名.settings import REDIS_URL


def get_ip():
    coon = redis.from_url(REDIS_URL)
    url = "生成的API链接"
    body = requests.get(url)
    data = json.loads(body.text)
    code = data["code"]
    if code == "0":
        msgs = data["msg"]
        for msg in msgs:
            ip = msg["ip"]
            port = msg["port"]
            IP = ip + ":" + port
            coon.lpush("proxies", IP)
    elif code == "3001":
        time.sleep(5)
        get_ip()

3.配置Middlewares

class ProxiesMiddleware(object):
    def __init__(self):
        self.coon = redis.from_url(REDIS_URL)

    def process_request(self, request, spider):
        if self.coon.llen("proxies") == 0:
            get_ip()
        ip_list = self.coon.lrange("proxies", 0, -1)
        IP_LIST = []
        for ip in ip_list:
            IP = ip.decode("utf-8")
            IP_LIST.append(IP)
            request.meta["proxy"] = "http://{}".format(random.choice(IP_LIST))

    def process_response(self, response, request, spider):
        if "人机交互校验" in response.text:
            proxy = request.meta["proxy"].split("/")[-1]
            print("需要输入验证码,更换ip")
            print(response.url)
            self.coon.lrem("proxies", proxy)
            return request
        return response

    def process_exception(self, request, exception, spider):
        if exception:
            proxy = request.meta["proxy"].split("/")[-1]
            print("删除失效IP")
            self.coon.lrem("proxies", proxy)
            return request

`Scrapy-ProxyMiddleware` 是一个用于Scrapy框架的中间件插件,它允许你在Scrapy爬虫中动态地使用代理IP。这个中间件主要用于解决网络请求过程中可能遇到的IP限制或反爬机制。以下是使用`Scrapy-ProxyMiddleware`获取和使用的步骤: 1. **安装与配置**: - 安装 `scrapy-proxies-middleware`:`pip install scrapy-proxies-middleware` - 在`settings.py`文件中启用中间件:添加 `'scrapy_proxies.middlewares.ScrapyProxiesMiddleware'` 到 `DOWNLOADER_MIDDLEWARES` 中。 2. **设置代理源**: - 可以从文件、数据库或API获取代理IP。例如,你可以创建一个文本文件,每一行包含一个代理IP地址(格式通常是 `http://proxy_ip:port` 或 `https://proxy_ip:port`)。 - 通过中间件配置文件 `middlewares.py`,定义代理IP的获取方法,比如从本地文件读取: ```python class MyCustomProxyMiddleware(ScrapyProxiesMiddleware): def get_proxy(self): with open('proxies.txt', 'r') as f: return f.readline().strip() ``` 3. **使用代理**: - 在`Spider`类的`start_requests()`方法中,设置每个请求的代理: ```python class MySpider(scrapy.Spider): def start_requests(self): proxy_url = self.settings.get('PROXY_URL') yield scrapy.Request(url=self.start_urls[0], proxies={'http': proxy_url, 'https': proxy_url}, meta={'proxy_type': 'http'}) ``` 4. **注意事项**: - 自动切换代理IP:中间件通常支持轮询、随机选择或固定顺序等方式切换代理IP,可以配置`change_proxy_interval`等参数。 - 错误处理:如果代理不可用或无效,中间件会自动回退到下一个代理。 通过以上步骤,`Scrapy-ProxyMiddleware`就能帮助你在一个爬虫项目中有效地管理和使用代理IP
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值