使用scrapyd部署scrapy_redis爬虫

一.安装scrapyd,scrapyd_client

pip install scrapy
pip install scrapyd_client

二.配置scrapy项目

找到项目下的scrapy.cfg

[deploy:myspider]
url = http://localhost:6800/
project = webFont

在settings中加入

import  sys
import os
BASE_DIR = sys.path.append(os.path.dirname(os.path.abspath(__file__)))
sys.path.insert(0,os.path.join(BASE_DIR, "项目名"))

如果你使用Windows部署你需要打开你的虚拟环境Scripts目录
找到scrapyd-deploy文件,相同路径下新建一个scrapyd-deploy.bat文件
写入
第一个路径是Python.exe的路径,第二个路径是scrapy-deploy路径

@echo off

"C:\Users\ghostdot\AppData\Local\Programs\Python\Python38\python.exe" "C:\Users\ghostdot\AppData\Local\Programs\Python\Python38\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9

三.部署

进入爬虫所在路径,执行

scrapyd-deploy -l

确保scrapy list命令好使

sapyd-deploy myspider -p myproject
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值