scrapy 中的pipeleine.py文件解答

Itm pipeline 为项目管道, 当item生成时,它会自动被送到Item piplone进行处理,常用来:

1,清理HTML数据

2,验证爬取数据,检查爬取字段

3,查看并丢弃重复的内容

4,将爬取的结果保存到数据库

实现Item Pipeline很简单,只需要定义一个类并实现process_item()方法即可,启动Item Pipeline后,Item Pipeline会自动调用这个方法,

process_item()方法必须返回包含数据的字典或Item对象,或者抛出DropItem异常.

例子代码: 

爬虫代码:

# -*- coding: utf-8 -*-
import scrapy

from xxoo.items import XxooItem


class MinSpiderSpider(scrapy.Spider):
    name = 'min_spider'
    allowed_domains = ['quotes.toscrape.com']
    start_urls = ['http://quotes.toscrape.com/']

    def parse(self, response):
        quotes = response.css('.quote')
        for i in quotes:
            item = XxooItem()
            item['text'] = i.css('.text::text').extract_first()
            item['author'] = i.css('.author::text').extract_first()
            item['tags'] = i.css('.tags .tag::text').extract()

            yield item

        next1 = response.css('.pager .next a::attr(href)').extract_first()
        url = response.urljoin(next1)
        yield scrapy.Request(url=url, callback=self.parse)

 pipeline代码:

# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
from scrapy.exceptions import DropItem
import pymongo


class TextPipeline(object):
    def __init__(self):
        """
        限制text内容长度为50
        """
        self.limit = 50

    def process_item(self, item, spider):
        """
        先判断item中的text是否存在,不存在抛出异常,存在判断长度,若长度大于50则
        截断拼接省略号,再将item返回即可
        :param item: 
        :param spider: 
        :return: 
        """
        if item['text']:
            if len(item['text']) > self.limit:
                item['text'] = item['text'][0:self.limit].rstrip() + '...'
            return item
        else:
            return DropItem('Missing Text')


class MongoPipeline(object):
    def __init__(self, mongo_uri, mongo_db):
        """
        初始化
        """
        self.mongo_uri = mongo_uri
        self.mongo_db = mongo_db
        
    @classmethod
    def from_crawler(cls, crawler):
        """
        类方法,用@classmethod标识,是一种依赖注入方法,它的参数就是crawler,通过crawler
        我们可以拿到全局配置的每一个配置信息,可以定义mongo_uri,mongo_db链接所需要的地址
        和数据库名称,拿到配置信息之后返回类对象即可,这方法主要就是获取settings.py的配置  
        :param crawler: 
        :return: 
        """
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI'),
            mongo_db=crawler.settings.get('MONGO_DB')
        )
    
    def open_spider(self, spider):
        """
        启动爬虫,调用此方法
        :param spider: 
        :return: 
        """
        self.client = pymongo.MongoClient(self.mongo_uri)
        self.db = self.client[self.mongo_db]
        
    def process_item(self, item, spider):
        """
        执行数据插入操作
        :param item: 
        :param spider: 
        :return: 
        """
        name = item.__class__.__name__
        self.db[name].insert(dict(item))
        return item
    
    def close_spider(self, spider):
        """
        当爬虫结束时调用
        :param spider: 
        :return: 
        """
        self.client.close()

配置settings.py

ITEM_PIPELINES = {
   'xxoo.pipelines.TextPipeline': 300,
    'xxoo.pipelines.MongoPipeline':400,
}
MONGO_URI = 'localhost'
MONGO_DB = 'xxoo'

赋值ITEM_PIPELINES字典,键名是pipeline的类名称, 键值是调用优先级,是一个数字,数字越小则对应pipeline越先被调用.

执行代码:

scrapy carwl min_spider

最后会在MOngoDB中创建一个叫做xxoo的数据库,QuoteItem的表

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
4S店客户管理小程序-毕业设计,基于微信小程序+SSM+MySql开发,源码+数据库+论文答辩+毕业论文+视频演示 社会的发展和科学技术的进步,互联网技术越来越受欢迎。手机也逐渐受到广大人民群众的喜爱,也逐渐进入了每个用户的使用。手机具有便利性,速度快,效率高,成本低等优点。 因此,构建符合自己要求的操作系统是非常有意义的。 本文从管理员、用户的功能要求出发,4S店客户管理系统的功能模块主要是实现管理员服务端;首页、个人心、用户管理、门店管理、车展管理、汽车品牌管理、新闻头条管理、预约试驾管理、我的收藏管理、系统管理,用户客户端:首页、车展、新闻头条、我的。门店客户端:首页、车展、新闻头条、我的经过认真细致的研究,精心准备和规划,最后测试成功,系统可以正常使用。分析功能调整与4S店客户管理系统实现的实际需求相结合,讨论了微信开发者技术与后台结合java语言和MySQL数据库开发4S店客户管理系统的使用。 关键字:4S店客户管理系统小程序 微信开发者 Java技术 MySQL数据库 软件的功能: 1、开发实现4S店客户管理系统的整个系统程序; 2、管理员服务端;首页、个人心、用户管理、门店管理、车展管理、汽车品牌管理、新闻头条管理、预约试驾管理、我的收藏管理、系统管理等。 3、用户客户端:首页、车展、新闻头条、我的 4、门店客户端:首页、车展、新闻头条、我的等相应操作; 5、基础数据管理:实现系统基本信息的添加、修改及删除等操作,并且根据需求进行交流信息的查看及回复相应操作。
现代经济快节奏发展以及不断完善升级的信息化技术,让传统数据信息的管理升级为软件存储,归纳,集处理数据信息的管理方式。本微信小程序医院挂号预约系统就是在这样的大环境下诞生,其可以帮助管理者在短时间内处理完毕庞大的数据信息,使用这种软件工具可以帮助管理人员提高事务处理效率,达到事半功倍的效果。此微信小程序医院挂号预约系统利用当下成熟完善的SSM框架,使用跨平台的可开发大型商业网站的Java语言,以及最受欢迎的RDBMS应用软件之一的MySQL数据库进行程序开发。微信小程序医院挂号预约系统有管理员,用户两个角色。管理员功能有个人心,用户管理,医生信息管理,医院信息管理,科室信息管理,预约信息管理,预约取消管理,留言板,系统管理。微信小程序用户可以注册登录,查看医院信息,查看医生信息,查看公告资讯,在科室信息里面进行预约,也可以取消预约。微信小程序医院挂号预约系统的开发根据操作人员需要设计的界面简洁美观,在功能模块布局上跟同类型网站保持一致,程序在实现基本要求功能时,也为数据信息面临的安全问题提供了一些实用的解决方案。可以说该程序在帮助管理者高效率地处理工作事务的同时,也实现了数据信息的整体化,规范化与自动化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值