使用Scrapy爬取一个网站的数据

Scrapy框架的初步运用


上午刚配置好scrapy框架,下午我就迫不及待的做了一个小demo来测试一下,结果证明scrapy真是太强大了。我感觉等对它掌握到炉火纯青的地步后,就没有什么数据是爬不到的了,O(∩_∩)O哈哈~。


以下步骤是建立在成功安装并配置好scrapy的基础上的.


1.新建一个Scrapy项目

打开cmd控制台界面
输入:scrapy startproject myScrapy

创建scrapy工程

下面是创建的工程中所包含的文件:

myspider的结构

__init__.py:项目的初始化文件;
items.py:项目的目标文件
pipelines.py:项目的管道文件
settings.py:项目的设置文件
spiders/:存放爬虫代码的文件
spiders/__init__.py:爬虫的初始话文件

2.定义Item

Items是保存爬取到的数据的容器,其使用方法和python字典类似, 它提供了额外保护机制来避免拼写错误导致的未定义字段错误,这类似与ORM中的映射关系。

这是items.py中的默认代码:

import scrapy

class mySpiderItem(scrapy.Item):
    #name = scrapy.Field()    
    pass
  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值