Python 爬虫,scrapy,pipeline管道,open_spider(),close_spider()

 

项目名/pipelines.py(管道,open_spider(),close_spider()):

# -*- coding: utf-8 -*-


class DemoPipeline(object):
    
    # 开启爬虫时执行,只执行一次
    def open_spider(self, spider):
        # spider.hello = "world"  # 为spider对象动态添加属性,可以在spider模块中获取该属性值
        # 可以开启数据库等
        pass

    # 处理提取的数据(保存数据)
    def process_item(self, item, spider):
        pass

    # 关闭爬虫时执行,只执行一次。 (如果爬虫中间发生异常导致崩溃,close_spider可能也不会执行)
    def close_spider(self, spider):
        # 可以关闭数据库等
        pass

 

 

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值