scrapy的补充且对于反爬虫的设置(中间键)

爬取csdn博客信息,并爬取每篇博客的内容

主程序

class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['blog.csdn.net']
    start_urls = ['http://blog.csdn.net/GLH_2236504154']

    def parse(self, response):
        # 类似于字典的对象

        boxs = response.xpath('//div[@class="article-item-box csdn-tracking-statistics"]')

        for box in boxs:
            # 打印仅为了测试;
            # ************将item对象实例化在for循环里面, 否则每次会覆盖之前item的信息;*******
            item = CsdnItem()
            item['title'] = box.xpath('./h4/a/text()')[1].extract().strip()
            item['url'] = box.xpath('./h4/a/@href')[0].extract()
            # print("1. *****************", item['title'])
            #第一个参数都是url地址,下一个函数自动解析地址
            #meta传递item里面的内容
            #callback回头调用另外一个函数
            yield scrapy.Request(item['url'], meta={'item': item}, callback=self.parse_article)


        for page in range(2, 3):
            url = "https://blog.csdn.net/GLH_2236504154/article/list/%s" %(page)
            yield  scrapy.Request(url, callback=self.parse)
    
    #调用这个函数是因为博客内容需要进入爬取到的url地址,即另外一个网址
    #所以需要保留之前的item信息,调用这个函数item信息才完整
    def parse_article(self, response):
        #接受数据,且数据未变,且重新赋值给item
        item = response.request.meta['item']
        # 打印仅仅为了测试:出现问题的部分.
        # print("2.************************", item['title'])
        # inspect_response(response, self)
        content = response.xpath('//div[@id="article_content"]').extract()[0]
        item['content'] = content
        yield item

item信息

class csdnItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field()
    url = scrapy.Field()
    content = scrapy.Field()

反爬虫策略:

在settings.py中添加:

# 策略一:设置download_delay

  - 作用:设置下载的等待时间,大规模集中的访问对服务器的影响最大,相当与短时间中增大服务器负载。

  - 缺点: 下载等待时间长,不能满足段时间大规模抓取的要求,太短则大大增加了被ban的几率
 # 1. 设置DOWNLOAD_DELAY = 3,
    设置下载的等待时间;每下载一个页面, 等待xxx秒。


# 策略二:禁止cookies
    - Cookie,有时也用其复数形式 Cookies,指某些网站为了辨别用户身份、进行 session
        跟踪而储存在用户本地终端上的数据(通常经过加密)。
    - 作用: 禁止cookies也就防止了可能使用cookies识别爬虫轨迹的网站得逞。
    - 实现: COOKIES_ENABLES=False
    # 2. 禁止cookie信息;
    # Disable cookies (enabled by default)
    COOKIES_ENABLED = False
    

    # 3. 设置用户代理
    USER_AGENT = 'Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0'

在middlewares.py中添加:

  # 策略三:使用user agent池(拓展: 用户代理中间键)
    - 为什么使用? scrapy本身是使用Scrapy/0.22.2来表明自己身份的。这也就暴露了自己是爬虫的信息。
    - user agent,是指包含浏览器信息、操作系统信息等的一个字符串,也称之为一种特殊的网络协议。服务
        器通过它判断当前访问对象是浏览器、邮件客户端还是网络爬虫。  
    
    
    # 策略四:使用代理IP中间件
	web server应对爬虫的策略之一就是直接将你的IP或者是整个IP段都封掉禁止访问,
	这时候,当IP封掉后,转换到其他的IP继续访问即可。

	# 策略五: 分布式爬虫Scrapy+Redis+MySQL   # 多进程
     Scrapy-Redis则是一个基于Redis的Scrapy分布式组件。
     它利用Redis对用于爬取的请求(Requests)进行存储和调度(Schedule),
     并对爬取产生rapy一些比较关键的代码,将scrapy变成一个可以在多个主
     机上同时运行的分布式爬虫。

在middlewares.py中设置需要的中间键

设置多个用户代理浏览器

class UserAgentMiddleware(object):
    def __init__(self):
    #代理浏览器自己添加,在网页的头部信息里获取
        self.user_agent = [
            'Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0',
            "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 "
        ]
    def process_request(self, request, spider):
        ua = random.choice(self.user_agent)
        if ua:
            # 此行仅为了测试, 真实场景不要打印, 会影响爬虫的效率
            # print("当前使用的用户代理: %s" %(ua))
            request.headers.setdefault('User-Agent', ua)

设置多个代理ip

class ProxiesMiddleware(object):
    #       - 1). 从西刺代理IP网站获取所有的代理IP并存储到mysql/redis;
    def __init__(self):
        # 2). 连接redis/mysql数据库;
			#这里只各找了一个,测试用
        self.proxies = [
            'http://116.209.54.221:9999',
            "https://111.177.183.212:9999"
        ]
    def process_request(self, request, spider):
        """当发起请求"""
        # 3). 从数据库里面随即获取一个代理IP;
        proxy = random.choice(self.proxies)

        if proxy:
            # 此行仅为了测试, 真实场景不要打印, 会影响爬虫的效率
            # print("当前使用的代理IP: %s" %(proxy))
            request.meta['proxy'] = proxy

     def process_response(self, response, spider):
         """当响应的时候自动执行的函数......"""
         pass
     def process_exception(self, request, exception, spider):
         if exception:
             # 4). 如果产生异常, 则删除数据库里面对应的数据;
             print("代理异常")
         return  request

设置完中间键,需要在settings.py中打开

DOWNLOADER_MIDDLEWARES = {
    # 优先级1~10000
   'mySpider.middlewares.MyspiderDownloaderMiddleware': 543,
   'mySpider.middlewares.UserAgentMiddleware': 200,
   'mySpider.middlewares.ProxiesMiddleware': 300,
}
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值