爬虫实战八、爬虫程序防封策略配置

免责声明

本文所有内容,包括文字、图片、音频、视频、软件以及程序等,仅用于个人学习、研究或欣赏。本人不保证内容的正确性。通过参考本文内容随之而来的风险与本人无关。读者可将本文提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本人及相关权利人的合法权利。

本文撰写目的是个人学习、研究或欣赏,部分内容来源于互联网,如无意侵犯他人或网站合法权利,请联系本人,予以删除。

#前言

在前几天的爬虫实践中,由于防封措施做得不好,被豆 * 封了,必须登录才能打开豆 * 的网站,但是我又不想登录,所以今天做了一些防封的配置供大家参考。

搜狗截图20190226174918.png

#一、防封策略

根据scrapy官方文档里面的描述,要防止scrapy被ban,主要有以下几个策略。

由于Google cache受国内网络的影响,使用不便,而Crawlera我会专门放到下一篇专题去讲,所以在本文暂时主要从设置延迟下载、禁用cookies、动态随机设置user agent和使用代理IP这几种策略出发,防止爬虫程序被封禁。

#二、防封配置
###2-1、设置延迟下载
在项目的settings.py文件中添加如下配置:

# 设置并发数量
CONCURRENT_REQUESTS = 1

# 设置延迟下载间隔,单位:秒
DOWNLOAD_DELAY = 5

两个属性的含义:

CONCURRENT_REQUESTS
默认: 16
Scrapy下载程序执行的并发(即同时)请求的最大数量。
DOWNLOAD_DELAY
默认: 0
下载器在从同一网站下载连续页面之前应等待的时间(以秒为单位)。
这可以用于限制爬行速度,以避免连续向服务器发起请求。支持小数。例:

DOWNLOAD_DELAY = 0.25    # 250 ms of delay

###2-2、配置robots.txt协议
在项目的settings.py文件中添加如下配置:

# 是否遵循robots.txt协议,具体需要根据需求来配置True或者False
ROBOTSTXT_OBEY = True

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎抓取限制。通俗来说, robots.txt 是遵循 Robot协议 的一个文件,它保存在网站的服务器中,它的作用是,告诉搜索引擎爬虫,本网站哪些目录下的网页不希望你进行爬取收录。在Scrapy启动后,会在第一时间访问网站的 robots.txt 文件,然后确定该网站的爬取范围。

当然,我们并不是在做搜索引擎,而且在某些情况下我们想要获取的内容恰恰是被 robots.txt 所禁止访问的。所以,某些时候,我们就要将此配置项设置为 False ,拒绝遵守 Robot协议。当然这样就会有被封的风险。

###2-3、禁用cookies
在项目的settings.py文件中添加如下配置:

# 禁用cookies
COOKIES_ENABLED = False

部分网站会通过用户的Cookie信息对用户进行识别与分析,所以要防止目标网站使用Cookie识别我们的会话信息。

###2-4、设置动态随机USER_AGENT

Scrapy请求的USER_AGENT的切换都是通过DOWNLOADER_MIDDLEWARES进行控制的,因此

  • 第1步、在项目的settings.py文件中添加USER_AGENTS配置,例如:
# 使用动态USER_AGENT
USER_AGENTS = [
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
    "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
    "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
    "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
    "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
    "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
]
  • 第2步、在项目的middlewares.py文件中添加如下代码:
import random

class RandomUserAgent(object):

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler.settings.getlist('USER_AGENTS'))

    def __init__(self, agents):
        self.agents = agents

    def process_request(self, request, spider):
        request.headers.setdefault('User-Agent', random.choice(self.agents))

类RandomUserAgent主要用来动态获取USER_AGENT,USER_AGENT列表USER_AGENTS在settings.py中进行配置。

  • 第3步、在项目的settings.py文件中添加如下配置:
DOWNLOADER_MIDDLEWARES = {
    'doubanRating.middlewares.RandomUserAgent': 1, # 配置随机USER_AGENT
}

数字配置范围0-1000,代表配置优先级,数字越小优先级越高。

###2-5、使用动态IP代理
Scrapy代理IP的切换也是通过DOWNLOADER_MIDDLEWARES进行控制的,因此

  • 第1步、在项目的settings.py文件中添加PROXIES配置,例如:
PROXIES = [
    {'ip_port': '111.11.228.75:80', 'user_pass': ''},
    {'ip_port': '120.198.243.22:80', 'user_pass': ''},
    {'ip_port': '111.8.60.9:8123', 'user_pass': ''},
    {'ip_port': '101.71.27.120:80', 'user_pass': ''},
    {'ip_port': '122.96.59.104:80', 'user_pass': ''},
    {'ip_port': '122.224.249.122:8088', 'user_pass': ''},
]
  • 第2步、在项目的middlewares.py文件中添加如下代码:
import random
import base64
from doubanRating.settings import PROXIES

class ProxyMiddleware(object):

    def process_request(self, request, spider):
        proxy = random.choice(PROXIES)
        if proxy['user_pass'] is None:
            request.meta['proxy'] = "http://%s" % proxy['ip_port']
            encoded_user_pass = base64.b64encode(proxy['user_pass'].encode('utf-8'))
            request.headers['Proxy-Authorization'] = 'Basic ' + str(encoded_user_pass)
            print
            "**************ProxyMiddleware have pass************" + proxy['ip_port']
        else:
            print
            "**************ProxyMiddleware no pass************" + proxy['ip_port']
            request.meta['proxy'] = "http://%s" % proxy['ip_port']

类ProxyMiddleware用来切换代理,proxy列表PROXIES也是在settings.py中进行配置。

  • 第3步、在项目的settings.py文件中添加如下配置,此配置和 2-4、设置动态随机USER_AGENT 第3步 合并:
DOWNLOADER_MIDDLEWARES = {
    'doubanRating.middlewares.RandomUserAgent': 1, # 配置随机USER_AGENT
    'doubanRating.middlewares.ProxyMiddleware': 100, # 配置代理IP
    'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 110, # 配置代理IP
}

至此,基本的防封配置已经配置完毕,可以运行爬虫进行效果测试。

  • 33
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值