Scrapy框架简单应用

一、Scrapy框架

在这里插入图片描述

  1. Spiders负责两件事(1)发送url到引擎(2)接收响应回来的数据
  2. Scheduler(调度器)从引擎获得url,对url进行排序,安排谁先谁后怎么去爬取
  3. Downloader(下载器)去Internet下载数据,把数据交给引擎
  4. Item Pipeline(数据管道)进行数据的存储

二、创建项目

  1. win+R找到自己项目的目录
  2. 创建项目的语法:scrapy startproject douban
  3. 结果如下
    在这里插入图片描述

三、项目编写

1,items.py编写,定义属性

import scrapy


class DoubanItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    #以上两行注释交给我们怎么定义属性,跟着写就可以
    title=scrapy.Field()
    publish=scrapy.Field()
    score=scrapy.Field()
    # 由于我们要爬取书名,书的信息以及书的得分所以我们定义这三个属性

2,Spiders编写

Spiders编写在spiders中创建一个新的.py文件进行爬虫的编写

import scrapy
from lxml import etree
from ..items import DoubanItem #从items中导入DoubanItem这个类
class DoubanSpider(scrapy.Spider):
    name = 'douban'#定义爬虫的名字,主要是用于启动爬虫程序
    allowed_domains=['book.douban.com/top250']#定义爬虫爬取的范围,可以写入多个
    start_urls=['https://book.douban.com/top250']#定义爬取的网址,也可写入多个

    def parse(self, response):#用于获取相应的结果
        tree = etree.HTML(response.text)
        tags = tree.xpath('//div[@class="article"]//tr[@class="item"]')
        for tag in tags:
            item=DoubanItem()
            title=tag.xpath('.//div[@class="pl2"]/a/@title')
            title=''.join(title)
            publish=tag.xpath('.//p[1]/text()')
            publish=''.join(publish)
            score=tag.xpath('.//div[@class="star clearfix"]/span[2]/text()')
            score=''.join(score)
            item['title']=title
            item['publish']=publish
            item['score']=score

            yield item #负责将数据提交给引擎

3,settings.py进行修改

  • 之前我们写爬虫程序需要进行UA伪装,在Scrapy框架中,也是要进行设置的,在settings.py文件进行设置,找到如下的代码,将headers添加进去
    在这里插入图片描述

  • 将协议设置为False
    在这里插入图片描述

  • 管道打开

在这里插入图片描述

4,pipelines.py进行数据存储

import openpyxl
class DoubanPipeline:
    def __init__(self):
        self.wb=openpyxl.Workbook()
        self.ws=self.wb.active
        self.ws.append(['书名','出版','评分'])#表头设置

    def process_item(self, item, spider):
        line=[item['title'],item['publish'],item['score']]
        self.ws.append(line)

        return item

    def close_spider(self,spider):
        self.wb.save('doubanbooks.xlsx')
        self.wb.close()

5,启动程序

创建一个新的.py文件,注:一定要和scrapy.cfg在同一级目录下

from scrapy import cmdline
cmdline.execute(['scrapy','crawl','douban'])#douban就是我们定义的爬虫程序的名字

结果展示
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhi金——金小亮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值