scrapy中pipeline组件常见作用,数据的清洗和入库

在scrapy的Item pipeline组件中有两个典型的作用,一个是查重并丢弃,第二个是将爬取的数据保存到文件或者数据库中。

以下为用scrapy爬取的豆瓣图书信息,数据清晰和去重都可以在Item Pipeline中完成

class DoubanBooksPipeline(object):
    def process_item(self, item, spider):
        author = item['author']
        if author:
            item['author'] = author.strip().replace('\n','').replace(' ','')
        series = item['series']
        if series:
            item['series'] = series.replace('\xa0','')
        content = item['content']
        if content:
            item['content'] = content.replace('\n','').replace(' ','')
        about_author = item['about_author']
        if about_author:
            item['about_author'] = about_author.replace('\n','').replace(' ','')
        pub
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值