今天在部署爬虫框架时输入
csdnspider>scrapyd-deploy aef -p
结果报错如下:
E:\Code\python\spider\scrapy_spider\csdnspider>scrapyd-deploy aef -p csdnspider
Traceback (most recent call last):
E:\Code\python\spider\scrapy_spider\csdnspider>scrapyd-deploy aef
-p csdnspider
Traceback (most recent call last):
File "D:\ruanjian\Python\python3\Scripts\scrapyd-deploy", line 23, in <module>
from scrapy.utils.http import basic_auth_header
ModuleNotFoundError: No module named 'scrapy.utils.http'
出现这种情况大部分都是scrapy包有问题,也不需要多麻烦,直接换一个包就好
我把替换的包上传到了百度网盘里
下载路径 ==>> scrapy包
提取码 ==>> ace0
首先把下载好的包解压,出现一个scrapy文件夹
之后进入python的包目录
python3\Lib\site-packages
之后将解压的scrapy包替换掉python环境目录下的scrapy包
之后再运行代码即可完美运行