windows 下 scrapyd的配置

本文详细介绍了Scrapyd的安装、配置和使用步骤,包括如何部署Scrapy项目,管理多个项目版本,以及通过JsonAPI控制爬虫运行。此外,还解决了Scrapyd日志乱码问题,并提供了修改配置文件和部署脚本的示例,帮助用户更好地理解和操作Scrapyd服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、Scrapyd是一个用来部署和运行Scrapy项目的应用,由Scrapy的开发者开发。其可以通过一个简单的Json API来部署(上传)或者控制你的项目。

2、Scrapyd可以用来管理多个项目,并且每个项目还可以上传多个版本,不过只有最新的版本会被使用。

3、在安装并开启Scrapyd之后,它将会挂起一个服务来监听运行爬虫的请求,并且根据请求为每一个爬虫启用一个进程来运行。

4、Scrapyd同样支持同时运行多个进程,进程的数量由max_proc和max_proc_per_cpu选项来限制

Scrapyd 使用详解:

一、安装scrapyd

pip install scrapyd

二、安装scrapyd-client

pip install scrapyd-client

三、命令行输入 scrapyd  ( 测试scrapyd 是否安装成功如果是这样子就表示安装完成)

si 

四、然后我们打开浏览器输入 127.0.0.1:6800 会出现这样一个页面表示scrapyd 安装成功。

五、修改scrapyd的配置,修改成允许远程访问

配置文件路径:D:\mytools\Anconda3\envs\py36\Lib\site-packages\scrapyd

修改 bind_address = 127.0.0.1   为  bind_address = 0.0.0.0

六、添加scrapyd-deploy.bat 文件(因为 scrapyd-deploy  运行会报错, 找不到XXX)

编写内容如下:

@echo off

"D:\mytools\Anconda3\envs\py36\python.exe" "D:\mytools\Anconda3\envs\py36\Scripts\scrapyd-deploy" %*

七、修改scrapyd-deploy文件, 否则scrapyd-deploy 会报导包错误

注释23行, 添加24行代码

from w3lib.http import basic_auth_header

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值