python3 scrapy中文文档_Scrapy官方文档笔记

1.创建Scrapy项目

首先用cmd命令行去操作,输入

scrapy startproject 项目名

#这里输入的项目名,就是在你输入的目录它会建立一个新的文件夹,这个文件夹里面还是同样名字的一个文件夹,项目新建的时候其实里面只有一个,后来的.idea是被pycharm打开之后pycharm生成的。

那这一步其实也就是决定了文件夹名字,以及在命令栏中决定根目录。

2.然后用pycharm打开这个项目,从根目录打开,在spiders里面新建一个python文件,从这里开始。

3.import scrapy

class mingyan(scrapy.Spider): # 需要继承scrapy.Spider类,类名随意后面不用

name = "Scrapy_test" # 定义蜘蛛名,这个重要,根据这个启动的,在这里面写清楚用来爬什么的

def start_requests(self): # 由此方法通过下面链接爬取页面

# 定义爬取的链接

urls = [

'http://lab.scrapyd.cn/page/1/',

'http://lab.scrapyd.cn/page/2/',

]

for url in urls:

yield scrapy.Request(url=url, callback=self.parse) # 爬取到的页面如何处理?提交给parse方法处理

def parse(self, response):

'''

start_requests已经爬取到页面,那如何提取我们想要的内容呢?那就可以在这个方法里面定义。

这里的话,并木有定义,只是简单的把页面做了一个保存,并没有涉及提取我们想要的数据,后面会慢慢说到

也就是用xpath、正则、或是css进行相应提取,这个例子就是让你看看scrapy运行的流程:

1、定义链接;

2、通过链接爬取(下载)页面;

3、定义规则,然后提取数据;

就是这么个流程,似不似很简单呀?

'''

page = response.url.split("/")[-2] # 根据上面的链接提取分页,如:/page/1/,提取到的就是:1

filename = 'mingyan-%s.html' % page # 拼接文件名,如果是第一页,最终文件名便是:mingyan-1.html

with open(filename, 'wb') as f: # python文件操作,不多说了;

f.write(response.body) # 刚才下载的页面去哪里了?response.body就代表了刚才下载的页面!

self.log('保存文件: %s' % filename) # 打个日志

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值