如果你scrapy startproject报错找不到某个库,安装还找不到这个库,可能是因为这个原因

有个问题我觉得有必要和大家说一下。这个问题网上找不到解决办法,我也试验了老半天才找原因所在:就是使用指令scrapy  startproject  <filename> 创建爬虫工程的时候,当前目录及其父目录及以上的所有目录绝对不能有scrapy.cfg配置文件。

举个例子:我在桌面放了一个bilibiliSpider3里面的scrapy.cfg文件,然后新建一个文件夹:

然后我到这个文件夹 里面 ,在这个文件夹的目录下打开按shift +鼠标右键打开命令提示符, scrapy startproject abc:

就会报错:

不明白的人可能以为少了一个模块,于是就是去conda install 啊pip install 啊 去官网找包啊,最后发现根本没这个module 。而到头来并不是Python库少这个模块,是因为这个文件夹的父目录(即我的桌面上)里有scrapy.cfg文件(而这个文件正是我从bilibiliSpider3工程里拿过来的)

然后注意我说的“父目录及以上”,举个例子:我新建一个文件夹,然后在里面放入scrapy.cfg文件

 

在这里新建一个文件夹a:

 

 

进入a,再新建一个文件夹b:

 

 

进入b再新建一个文件夹c:

进入c再新建一个文件夹d:

然后咱们进入d中,在此目录打开命令提示符(shift +右键可以找到)

输入scrapy startproject abaaba: 

看!依然报错!

所以说创建爬虫的时候从当前目录向上一直到根目录都不能出现其他的scrapy.cfg文件(你没听错“根目录”,比如我在c盘放了一个scrapy.cfg,于是乎整个c盘下新建爬虫项目都会报这个错误!)

以上!

 

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

咖啡咖_CoffCa

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值