scrapy custom_settings

单独爬虫配置
custom_settings = {
        'SOME_SETTING': 'some value',
    }
不同爬虫pipeline设置
custom_settings = {
    'ITEM_PIPELINES': {
        'video.pipelines.VideoPipeline': 301,
    }
}

cookie设置

custom_settings = {
        'COOKIES_ENABLED':True,  # 在配置文件settings中可以设置成False, 在这个spider中这样设置就可以开启cookies了,其他的配置一样适用
    }

 

settings/在settings同目录下新建custom_settings.py
 

 # -*- coding: utf-8 -*- 
 custom_settings_for_spider1 = { 
      'LOG_LEVEL': 'INFO', 
      'DOWNLOAD_DELAY': 0, 
      'COOKIES_ENABLED': False, # enabled by default 
      'DOWNLOADER_MIDDLEWARES': { 
             'video_spider.middlewares.ProxiesMiddleware': 400, 
             'video_spider.middlewares.SeleniumMiddleware': 543, 
             # 将scrapy默认的user-agent中间件关闭 12                         
            'scrapy.downloadmiddlewares.useragent.UserAgentMiddleware': None, 
         }, 
      }

在spider文件中引入custom_settings
 

import scrapy 
from scrapy import Request
from scrapy.utils.project import get_project_settings 
from scrapy import signals 
from pydispatch import dispatcher 
# setting 
class ShanbaySpider(scrapy.Spider): 
     name = 'shanbay' 
     allowed_domains = ['shanbay.com'] 
     start_urls = ['http://shanbay.com/'] 
     custom_settings = custom_settings_for_spider1

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值