Scrapy学习笔记VIII--Feed exports

当爬取完数据后,可以产生一个“export file”(输出文件)–>export feed(反馈报告),可以被其他系统所使用消耗

scrapy提供 Feed Exports,可以为items产生一个feed(文件如json,CSV,xml等),然后格式化的存储到后端

Serialization formats
当你爬取数据后,想把数据保存在本地路径(如json格式)或者其他地方,scrapy 使用(Item exporters),支持以下格式:

  • JSON ———–JsonItemExporter
  • JSON lines — JsonLinesItemExporter
  • CSV ————CsvItemExporter
  • XML ———–XmlItemExporter
  • Pickle ———PickleItemExporter
  • Marshal ——MarshalItemExporter
    你也可以扩展其他格式,通过 FEED_EXPORTERS setting 来设置

Storages

当为item数据定义好输出格式后,使用URI定义(FEED_URI setting)多种选择保存到后端:

  • 本地文件
  • FTP
  • S3 需要其他组件
  • 标准的输出

Storage URI parameters
添加参数

Storage backends 存储到后端

  • Local filesystem (存储到本地路径)

    • URI scheme : file
    • eg : file:///tmp/export.csv
    • 不需要其他组件
  • FTP

  • S3

    • URI scheme :s3
      • eg :
        s3://mybucket/path/to/export.csv

    s3://aws_key:aws_secret@mybucket/path/to/export.csv

    • 需要其他组件 botocore 、boto
  • Standard output

Settings
feed exports 的一些配置:

  • FEED_URI

  • FEED_FORMAT

  • FEED_EXPORT_ENCODING

  • FEED_EXPORT_FIELDS :

  FEED_EXPORT_FIELDS = ["foo", "bar", "baz"] #
  • FEED_STORE_EMPTY

  • FEED_STORAGES : default {}

  • FEED_STORAGES_BASE

{
    '': 'scrapy.extensions.feedexport.FileFeedStorage',
    'file': 'scrapy.extensions.feedexport.FileFeedStorage',
    'stdout': 'scrapy.extensions.feedexport.StdoutFeedStorage',
    's3': 'scrapy.extensions.feedexport.S3FeedStorage',
    'ftp': 'scrapy.extensions.feedexport.FTPFeedStorage',
}

  • FEED_EXPORTERS : default {}

  • FEED_EXPORTERS_BASE

 {
    'json': 'scrapy.exporters.JsonItemExporter',
    'jsonlines': 'scrapy.exporters.JsonLinesItemExporter',
    'jl': 'scrapy.exporters.JsonLinesItemExporter',
    'csv': 'scrapy.exporters.CsvItemExporter',
    'xml': 'scrapy.exporters.XmlItemExporter',
    'marshal': 'scrapy.exporters.MarshalItemExporter',
    'pickle': 'scrapy.exporters.PickleItemExporter',
}

FEED_EXPORTERS = {
    'csv': None,   #禁止使用CSV格式
} 
  • FEED_STORE_EMPTY

  • FEED_EXPORT_ENCODING

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy可以通过在settings.py文件中设置USER_AGENTS列表来实现随机user-agent。在列表中添加多个user-agent,Scrapy会随机选择一个作为请求头中的user-agent。这样可以避免被网站识别为爬虫,提高爬虫的稳定性和成功率。具体设置方法如下: 1. 在settings.py文件中添加USER_AGENTS列表,如下所示: ``` USER_AGENTS = [ 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:54.0) Gecko/20100101 Firefox/54.0', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36', 'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; AS; rv:11.0) like Gecko', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36', ] ``` 2. 在middlewares.py文件中添加RandomUserAgentMiddleware中间件,如下所示: ``` from scrapy import signals import random class RandomUserAgentMiddleware(object): def __init__(self, agents): self.agents = agents @classmethod def from_crawler(cls, crawler): return cls(crawler.settings.getlist('USER_AGENTS')) def process_request(self, request, spider): request.headers.setdefault('User-Agent', random.choice(self.agents)) ``` 3. 在settings.py文件中启用RandomUserAgentMiddleware中间件,如下所示: ``` DOWNLOADER_MIDDLEWARES = { 'myproject.middlewares.RandomUserAgentMiddleware': 543, 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None, } ``` 这样就完成了随机user-agent的设置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值