python3命令不识别_PYTHON - scrapy startproject命令命令不被识别

环境 视窗7(64) 的Python 2.7.3(32) PIP安装scrapyPYTHON - scrapy startproject命令命令不被识别

我有路径设置C:\ Python27; C:\ Python27 \脚本

安装所有的依赖库后(LXML,OpenSSL的,pywin32,扭曲,Zope的),我不再得到错误,当我点子这么一切似乎都被安装为安装scrapy需要

问题:

如果我尝试从蟒蛇目录

C:\Python27> scrapy startproject new

'scrapy' is not recgonized as an internal command or external...

开始,如果我尝试从脚本目录开始

C:\Python27\Scripts> scrapy startproject new

'python' is not recgonized as an internal command or external...

,如果我尝试从文件夹开始,我想做出新的刮

C:\Python27\new> scrapy startproject new

'scrapy' is not recgonized as an internal command or external...

的路径肯定设置正确,并正常工作,否则我wouldnt能够使用pip安装,virtualenv等。Scrapy startproject是唯一的python行动我有这个问题

请帮助什么可以阻止它看到“scrapy startproject”命令?

UPDATE:

尝试重新安装 “只是我” 当前的用户,不是所有的用户,现在已经取得了进展python273(32)。现在我可以调用scrapy命令,但只有当我明确指出完整路径WHILE即时在python27目录中。见下文

这不起作用

C:\> C:\Python27\Scripts\scrapy version

'python' is not recognized as an internal or external command,

operable program or batch file.

这个作品!

C:\> cd python27

C:\Python27> C:\Python27\Scripts\scrapy version

Scrapy 0.16.3

这不起作用

C:\Python27> cd scripts

C:\Python27\Scripts> scrapy version

'python' is not recognized as an internal or external command,

operable program or batch file.

什么会导致需要scrapy使用Python中的目录,只有当全路径做工精细?

终于可以称之为“scrapy startproject命令”命令,它的工作和生成的文件,但不认为我会永远能够称之为“scrapy爬”命令,直到我得到这个想通了

2012-12-20

hackg

+0

在提出一个愚蠢的问题时,是否存在C:\ Python27 \ Scripts中的“scrapy”和“scrapy.bat”?如果是这样,你是否尝试过使用显式路径运行scrapy,例如:“C:\ Python27 \ Scripts \ scrapy startproject new”。 另外,运行命令“pip freeze”的结果是什么? –

+0

是既scrapy和scrapy.bat存在的脚本文件夹 和使用显式路径尝试没有运气 - '巨蟒' 无法识别 C:\ Python27 \脚本> C:\ Python27 \脚本\ scrapy startproject命令新 '蟒蛇'不被识别为内部或外部命令, –

+0

尝试此链接并安装Python 2.7的每个库的最新版本。请注意,我有Python 2.7.3的64位安装,因此不需要摆弄注册表:https://github.com/scrapy/scrapy/wiki/How-to-Install-Scrapy-0.14-在一个64位的Windows 7环境 –

这里是一个简单的Python-Scrapy爬取百度搜索结果并对搜索结果进行分析的例子: 首先,我们需要安装Scrapy和lxml库。在命令行中输入以下命令: ``` pip install scrapy pip install lxml ``` 然后,我们可以创建一个名为baidu_spider的新项目,并在项目中创建一个名为baidu的新爬虫。在命令行中输入以下命令: ``` scrapy startproject baidu_spider cd baidu_spider scrapy genspider baidu www.baidu.com ``` 现在,我们在baidu_spider/spiders/baidu.py文件中编写我们的代码。我们将使用Scrapy的Selector来选择我们想要的数据。代码如下: ```python import scrapy class BaiduSpider(scrapy.Spider): name = "baidu" allowed_domains = ["www.baidu.com"] start_urls = ["http://www.baidu.com/s?wd=python"] def parse(self, response): # 获取搜索结果 results = response.xpath('//div[@class="result c-container "]') for result in results: # 获取标题和链接 title = result.xpath('.//h3/a/text()').extract_first().strip() link = result.xpath('.//h3/a/@href').extract_first() # 获取摘要 abstract = result.xpath('.//div[@class="c-abstract"]//text()').extract() abstract = "".join(abstract).strip() # 打印结果 print(title) print(link) print(abstract) ``` 在这个例子中,我们首先定义了我们的爬虫的名称,允许的域名和起始URL。然后我们定义了一个parse函数来处理响应。在parse函数中,我们使用XPath选择器来选择搜索结果。我们使用extract_first()和extract()方法来提取标题、链接和摘要。最后,我们打印了结果。 现在,我们可以在baidu_spider目录中运行以下命令来运行我们的爬虫: ``` scrapy crawl baidu ``` 这将启动我们的爬虫并开始爬取百度搜索结果。在控制台中,您应该能够看到我们的爬虫正在输出搜索结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值