爬虫框架--Scrapy学习笔记二

Scrapy项目文件目录简述

前言:通过学习笔记一的总结,大致上已经对Scrapy框架的数据流程以及组件的分工有了了解。这次来真正的创建一个Scrapy项目,来具体的看一看这些组件都被放置在哪些py文件中。(ps:就是找找它们住的地方!)
Scrapy项目图

创建一个Scrapy项目

scrapy startproject Scrapy_web
在终端输入上述命令后,会创建一个名字叫Scrapy_web的scrapy项目。接着输入cd Scrapy_web 进入该项目目录运行下面的命令来创建一个新的spider
scrapy genspider dmoz_spider doubanmovie
解释下名词:在这个 dmoz_spider 是你的py文件的名字,后面的doubanmovie 是 spider 的name,当你用scrapy crawl *** 命令来运行爬虫时,* 就是你这里输入的doubanmovie

真是生成的Scrapy文件与Scrapy 项目图 对比

Scrapy文件
将运行命令后生成的Scrapy文件,与文章刚开始贴出来的项目图做,对比,鲜明的了解下一个Scrapy项目吧。(ps:spiders文件夹下生成的是一个名字叫dmoz_spider.py的爬虫测试dome,与项目文件图中的jd_spider.py不同,它们就是你要些的爬虫了!:)

结束语

简单的看过scrapy的项目文件过后,是不是对Scrapy框架多了一层了解了。接下来我会写一个关于scrapy框架测试的小dome,来爬取豆瓣top250的电影,来对Scrapy的实现运用做下测试。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

piepis

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值