scrapy爬虫中pipeline保存数据

保存到MongoDB

class MongoPipeline(object):
    def __init__(self, mongo_url, mongo_db):
        self.mongo_url =mongo_url
        self.mongo_db = mongo_db
        self.db = None

    @classmethod
    def from_crawler(cls, crawler):
        return cls(
            mongo_url = crawler.settings.get('MONGO_URL'),
            mongo_db = crawler.settings.get('MONGO_DB')
        )

    def process_item(self, item, spider):
        logger.warning('%s保存到mongoDB成功',item['title'])
        # 创建数据表,插入数据
        if spider.name == 'yg':
            name = item.__class__.__name__
            self.db[name].update({'_id': item.get('_id')}, {'$set':dict(item)}, True)
            return item
        else:
            raise DropItem

    def open_spider(self, spider):
        # 建立连接,创建数据库
        if spider.name == 'yg':
           self.client = pymongo.MongoClient(self.mongo_url)
           self.db = self.client[self.mongo_db]

    def close_spider(self, spider):
        if spider.name == 'yg':
            self.client.close()

保存到文件

import json
class JsonWriterPipeline(object):
	def open_spider(self, spider):
		self.file = open(spider.settings.get("SAVE_FILE", './temp.json'), 'w')
	
	def close_spider(self,spider):
		self.file.close()
		
	def peocess_item(self, item, spider):
		line = json.dumps(dict(item)) + '\n' # 将字典转为json
		self.file.write(item)
		retuen item
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值