scrapy小练习

在这里插入图片描述

Spiders(url)–scrapyEnging(中转)–scheduler(url调度)–scrapyEnging(中转)–downloader(请求数据)–scrapyEnging(中转)–Spiders(返回url执行开始的顺便,data继续执行)–itempipeline(数据存储)

创建scrapy项目:scrapy startproject+爬虫项目名称

scrapy startproject biquge

创建爬虫:scrapy genspider+自己设置爬虫名字+爬虫的域名

scrapy genspider biquge_spider "www.qbiqu.com"
C:\Users\luoha>d:

D:\>cd D:\python\AAA_scrapy  #切换要保存项目的地址

D:\python\AAA_scrapy>scrapy startproject biquge  #创建项目
New Scrapy project 'biquge', using template directory 'e:\pycharm5.0.3\python-3.7.0\lib\site-packages\scrapy\templates\project', created in:
    D:\python\AAA_scrapy\biquge

You can start your first spider with:
    cd biquge
    scrapy genspider example example.com

D:\python\AAA_scrapy>cd D:\python\AAA_scrapy\biquge  #切换到创建的项目下

D:\python\AAA_scrapy\biquge>scrapy genspider biquge_spider "www.qbiqu.com"
Created spider 'biquge_spider' using template 'basic' in module:
  {spiders_module.__name__}.{module}

D:\python\AAA_scrapy\biquge>

编写scrapy爬虫,引入items中的BiqugeItem类进行数据过度

import scrapy
from biquge.items import BiqugeItem


class BiqugeSpiderSpider(scrapy.Spider):
    name = 'biquge_spider'
    allowed_domains = ['www.qbiqu.com']
    start_urls = ['http://www.qbiqu.com/']

    def parse(self, response):

        lis=response.xpath("//div[@id='hotcontent']/div[@class='r']/ul/li")
        for li in lis:
            type=li.xpath("./span[@class='s1']/text()").extract()[0]  #extract_first()
            title=li.xpath("./span[@class='s2']/a/text()").extract()[0]  #extract_first()
            name=li.xpath("./span[@class='s5']/text()").extract()[0]  #extract_first()
            # print(item)
            item=BiqugeItem(type=type,title=title,name=name)
            # print(type(item))
            yield item

在items文件定义爬取的字段

import scrapy


class BiqugeItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
      type=scrapy.Field()
      title=scrapy.Field()
      name=scrapy.Field()
    # pass

pipelines文件进行数据输出存储

class BiqugePipeline:
    def process_item(self, item, spider):
       print(item)  #这里就没写存储了,直接输出

要用到pipelines别忘记在setting打开一些配置

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值