android command line tools 下载,(六) Command line tools

1. 常用命令

1. 创建项目

scrapy startproject

2.创建Spider

scrapy genspider

3.使用spider爬取

scrapy crawl

2.可用命令

我们可以通过运行命令来获取关于每个命令的详细内容:

scrapy -h

Scrapy提供了两种类型的命令。一种必须在Scrapy项目中运行(针对项目(Project-specific)的命令),另外一种则不需要(全局命令)。全局命令在项目中运行时的表现可能会与在非项目中运行有些许差别(因为可能会使用项目的设定)。

1.全局命令

2.项目(Project-only)命令

3.详细命令

startproject

语法: scrapy startproject

是否需要项目: no

在 project_name 文件夹下创建一个名为 project_name 的Scrapy项目。

例子:

$ scrapy startproject myproject

genspider

语法: scrapy genspider [-t template]

是否需要项目: yes

在当前项目中创建spider。

这仅仅是创建spider的一种快捷方法。该方法可以使用提前定义好的模板来生成spider。您也可以自己创建spider的源码文件。

例子:

$ scrapy genspider -l

Available templates:

basic

crawl

csvfeed

xmlfeed

$ scrapy genspider -d basic

import scrapy

class $classname(scrapy.Spider):

name = "$name"

allowed_domains = ["$domain"]

start_urls = (

'[http://www.$domain/](http://www.%24domain/)',

)

def parse(self, response):

pass

$ scrapy genspider -t basic example [example.com](http://example.com/)

Created spider 'example' using template 'basic' in module:

mybot.spiders.example

crawl

语法: scrapy crawl

是否需要项目: yes

使用spider进行爬取。

例子:

$ scrapy crawl myspider

[ ... myspider starts crawling ... ]

check

语法: scrapy check [-l]

是否需要项目: yes

运行contract检查。

例子:

$ scrapy check -l

first_spider

* parse

* parse_item

second_spider

* parse

* parse_item

$ scrapy check

[FAILED] first_spider:parse_item

>>> 'RetailPricex' field is missing

[FAILED] first_spider:parse

>>> Returned 92 requests, expected 0..4

list

语法: scrapy list

是否需要项目: yes

列出当前项目中所有可用的spider。每行输出一个spider。

使用例子:

$ scrapy list

spider1

spider2

edit

语法: scrapy edit

是否需要项目: yes

使用 EDITOR 中设定的编辑器编辑给定的spider

该命令仅仅是提供一个快捷方式。开发者可以自由选择其他工具或者IDE来编写调试spider。

例子:

$ scrapy edit spider1

fetch

语法: scrapy fetch

是否需要项目: no

使用Scrapy下载器(downloader)下载给定的URL,并将获取到的内容送到标准输出。

该命令以spider下载页面的方式获取页面。例如,如果spider有 USER_AGENT 属性修改了 User Agent,该命令将会使用该属性。

因此,您可以使用该命令来查看spider如何获取某个特定页面。

该命令如果非项目中运行则会使用默认Scrapy downloader设定。

例子:

$ scrapy fetch --nolog [http://www.example.com/some/page.html](http://www.example.com/some/page.html)

[ ... html content here ... ]

$ scrapy fetch --nolog --headers [http://www.example.com/](http://www.example.com/)

{'Accept-Ranges': ['bytes'],

'Age': ['1263 '],

'Connection': ['close '],

'Content-Length': ['596'],

'Content-Type': ['text/html; charset=UTF-8'],

'Date': ['Wed, 18 Aug 2010 23:59:46 GMT'],

'Etag': ['"573c1-254-48c9c87349680"'],

'Last-Modified': ['Fri, 30 Jul 2010 15:30:18 GMT'],

'Server': ['Apache/2.2.3 (CentOS)']}

view

语法: scrapy view

是否需要项目: no

在浏览器中打开给定的URL,并以Scrapy spider获取到的形式展现。 有些时候spider获取到的页面和普通用户看到的并不相同。 因此该命令可以用来检查spider所获取到的页面,并确认这是您所期望的。

例子:

$ scrapy view [http://www.example.com/some/page.html](http://www.example.com/some/page.html)

[ ... browser starts ... ]

shell

语法: scrapy shell [url]

是否需要项目: no

以给定的URL(如果给出)或者空(没有给出URL)启动Scrapy shell。 查看 Scrapy终端(Scrapy shell) 获取更多信息。

例子:

$ scrapy shell [http://www.example.com/some/page.html](http://www.example.com/some/page.html)

[ ... scrapy shell starts ... ]

parse

语法: scrapy parse [options]

是否需要项目: yes

获取给定的URL并使用相应的spider分析处理。如果您提供 --callback 选项,则使用spider的该方法处理,否则使用 parse 。

支持的选项:

--spider=SPIDER: 跳过自动检测spider并强制使用特定的spider

--a NAME=VALUE: 设置spider的参数(可能被重复)

--callback or -c: spider中用于解析返回(response)的回调函数

--pipelines: 在pipeline中处理item

--rules or -r: 使用 CrawlSpider 规则来发现用来解析返回(response)的回调函数

--noitems: 不显示爬取到的item

--nolinks: 不显示提取到的链接

--nocolour: 避免使用pygments对输出着色

--depth or -d: 指定跟进链接请求的层次数(默认: 1)

--verbose or -v: 显示每个请求的详细信息

例子:

$ scrapy parse [http://www.example.com/](http://www.example.com/) -c parse_item

[ ... scrapy log lines crawling [example.com](http://example.com/) spider ... ]

>>> STATUS DEPTH LEVEL 1 <<<

# Scraped Items ------------------------------------------------------------

[{'name': u'Example item',

'category': u'Furniture',

'length': u'12 cm'}]

# Requests -----------------------------------------------------------------

[]

settings

语法: scrapy settings [options]

是否需要项目: no

获取Scrapy的设定

在项目中运行时,该命令将会输出项目的设定值,否则输出Scrapy默认设定。

例子:

$ scrapy settings --get BOT_NAME

scrapybot

$ scrapy settings --get DOWNLOAD_DELAY

0

runspider

语法: scrapy runspider

是否需要项目: no

在未创建项目的情况下,运行一个编写在Python文件中的spider。

例子:

$ scrapy runspider myspider.py

[ ... spider starts crawling ... ]

version

语法: scrapy version [-v]

是否需要项目: no

输出Scrapy版本。配合 -v 运行时,该命令同时输出Python, Twisted以及平台的信息,方便bug提交。

deploy

0.11 新版功能.

语法: scrapy deploy [ | -l | -L ]

是否需要项目: yes

将项目部署到Scrapyd服务。查看 部署您的项目 。

bench

0.17 新版功能.

语法: scrapy bench

是否需要项目: no

运行benchmark测试。 Benchmarking 。

3.自定义项目命令

您也可以通过 COMMANDS_MODULE 来添加您自己的项目命令。您可以以 scrapy/commands 中Scrapy commands为例来了解如何实现您的命令。

COMMANDS_MODULE

Default: '' (empty string)

用于查找添加自定义Scrapy命令的模块。

例子:

COMMANDS_MODULE = 'mybot.commands'

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值