python爬虫:scrapy命令失效,直接运行爬虫

scrapy命令失效,直接运行爬虫,无论是什么命令,都直接运行单个爬虫
出现这个错误,很意外

原因是这样的:
一开始,我写了个脚本单独配置爬虫启动项:

# begin.py
from scrapy import cmdline

cmdline.execute("scrapy crawl myspider")

这样一来会比较方便,不用每次都去命令行敲命令

然而
当我想运行其他爬虫的时候,直接就运行 myspider ,而且无论输入什么指令,

scrapy list 

等命令,完全没有用,直接就开始运行 myspider
那么我就把这个爬虫文件删除

接下来报错

raise KeyError("Spider not found: {}".format(spider_name))
KeyError: 'Spider not found: myspider'

顺着报错信息,往上面看

File "workspace/spiders_news/begin.py"

对,就是刚刚创建的那个 begin.py 文件,好吧,那我就再把它删除试试
然而,依然还是这个错,去文件目录看了下,发现还有一个文件,begin.pyc

好吧,那就再把它删除试试,好了,问题解决
scrapy list等命令又可以用了

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值