2、scrapy使用步骤

本篇介绍scrapy的使用步骤。scrapy是python的一个框架,可以通过安装python包的形式安装,必须先安装python。

scrapy安装步骤

  1. 安装python2.7
  2. 安装pip
  3. 安装lxml(抽取数据)
  4. 安装OpenSSL(网页访问认证)
  5. 安装Scrapy

使用步骤

  1. create a project
  2. define items
  3. write a spider
  4. write and configure an item pipeline
  5. execute crawler

现在通过通过第一、三、五步创建一个爬虫,代码如下。

创建工程

scrapy startproject tutorial

目录结构如下:

这里写图片描述

创建一个爬虫

cd tutorial

scrapy genspider dmoz dmoz.org

此时目录结构如下:

这里写图片描述

dmoz.py

# -*- coding: utf-8 -*-
import scrapy


class DmozSpider(scrapy.Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = ['http://dmoz.org/']

    def parse(self, response):
        pass

修改dmoz.py

# -*- coding: utf-8 -*-
import scrapy


class DmozSpider(scrapy.Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
    'http://dmoz.org/Computers/Programming/Languages/Python/Books/',
    'http://dmoz.org/Computers/Programming/Languages/Python/Resources/'
    ]

    def parse(self, response):
        # 保存start_urls中网页的内容
        filename = response.url.split('/')[-2] + '.html'
        with open(filename, 'w') as fp:
            fp.write(response.body)

运行爬虫

scrapy crawl dmoz

此时,爬虫将爬取两个网页的内容

修改爬虫,加入第二步

修改items.py

import scrapy


class TutorialItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field()
    desc = scrapy.Field()
    link = scrapy.Field()

再次修改dmoz.py

# -*- coding: utf-8 -*-
import scrapy
from tutorial.items import TutorialItem


class DmozSpider(scrapy.Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
    'http://dmoz.org/Computers/Programming/Languages/Python/Books/',
    'http://dmoz.org/Computers/Programming/Languages/Python/Resources/'
    ]

    def parse(self, response):
        # 获取li标签。通过firefox浏览器的firebug插件很容易获取元素的xpath
        lis = response.xpath('/html/body/div[2]/div[3]/fieldset[3]/ul/li')
        for li in lis:
            item = TutorialItem()
            item['title'] = li.xpath('a/text()').extract()
            item['link'] = li.xpath('a/@href').extract()
            item['desc'] = li.xpath('text()')
            yield item

运行爬虫

scrapy crawl dmoz

此时,爬虫将爬取网页中的书籍名称、链接和描述信息

在实际应用中,还应该编写pipelines.py文件,将数据保存到数据库中。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值