使用Scrapy爬取一个网站的数据

本文介绍了使用Scrapy框架创建爬虫项目的过程,包括新建项目、定义Item、创建爬虫文件、修改settings文件和管道文件,最终成功将数据保存到JSON文件中,展示了Scrapy的强大数据爬取能力。
摘要由CSDN通过智能技术生成

Scrapy框架的初步运用


上午刚配置好scrapy框架,下午我就迫不及待的做了一个小demo来测试一下,结果证明scrapy真是太强大了。我感觉等对它掌握到炉火纯青的地步后,就没有什么数据是爬不到的了,O(∩_∩)O哈哈~。


以下步骤是建立在成功安装并配置好scrapy的基础上的.


1.新建一个Scrapy项目

打开cmd控制台界面
输入:scrapy startproject myScrapy

创建scrapy工程

下面是创建的工程中所包含的文件:

myspider的结构

__init__.py:项目的初始化文件;
items.py:项目的目标文件
pipelines.py:项目的管道文件
settings.py:项目的设置文件
spiders/:存放爬虫代码的文件
spiders/__init__.py:爬虫的初始话文件

2.定义Item

Items是保存爬取到的数据的容器,其使用方法和python字典类似, 它提供了额外保护机制来避免拼写错误导致的未定义字段错误,这类似与ORM中的映射关系。

这是items.py中的默认代码:

import scrapy

class mySpiderItem(scrapy.Item):
    #name = scrapy.Field()    
    pass
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值