AttributeError: 'module' object has no attribute 'Spider' 解决了

在安装并尝试运行Scrapy爬虫项目时遇到'AttributeError: 'module' object has no attribute 'Spider''的错误。通过检查发现可能是由于Scrapy版本过低导致。升级到最新版本1.4后,问题得到解决,成功运行爬虫。
摘要由CSDN通过智能技术生成

参照上上篇安装scrapy的文章,把scarpy的依赖项以及scrapy安装完成之后,用scrapy startproject  创建了一个爬虫项目,然后写了一个最简单的爬虫模块

保存在项目的spider目录下,代码也很简单,如下

#coding:utf-8

import scrapy


class CnblogsSpider(scrapy.Spider):
    name = "cnblogs"
    allowd_domains = ["cnblogs.com"]
    start_urls = ["http://www.cnblogs.com/qiyeboy/default.html?page=1"]
    def parse(self,response):
        pass


然后执行scrapy crawl cnblogs ,总是报一大堆错误,错误信息如下

D:\cnblogs\cnblogsSpider>scrapy crawl cnblogs
2017-08-02 19:16:34+0800 [scrapy] INFO: Scrapy 0.14.4 started (bot: cnblogsSpider)
2017-08-02 19:16:35+0800 [scrapy] DEBUG: Enabled extensions: LogStats, TelnetConsole, CloseSpider, WebService, CoreStats, SpiderState
Traceback (most recent call last):
File "C:\Python27\Scripts\scrapy", line 4, in <module>
__import__('pkg_resources').run_script('Scrapy==0.14.4', 'scrapy')
File "C:\Python27\lib\site-packages\pkg_resources\__init__.py", line 743, in run_script

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值