爬虫部署 --- scrapyd部署爬虫 + Gerapy 管理界面 scrapyd+gerapy部署流程

---------scrapyd部署爬虫---------------
1.编写爬虫
2.部署环境
pip install scrapyd
pip install scrapyd-client
启动scrapyd的服务:cmd:>scrapyd(必须处于开启状态)
在爬虫根目录执行:scrapyd-deploy,如果提示不是内部命令,需要修改配置文件。

3.发布工程到scrapyd
修改scrapy.cfg,去掉url前的#
进入到scrapy项目根目录,执行:scrapyd-deploy <target> -p <projectname>提示:(target:scrapy.cfg中[deploy:***])(projectname:scrapy.cfg中project = XXX)
(#url中的#去掉)
4.启动爬虫
第一种方法:Django中view.py
class StartSpider(View):
def get(self,request):
url = 'http://localhost:6800/schedule.json'
data = {'project': 'ScrapyAbckg', 'spider': 'abckg'}
print( requests.post(url=url, data=data))
return JsonResponse({'result':'OK'})
第二种方法:(命令式启动爬虫:curl http://localhost:6800/schedule.json -d project=项目名 -d spider=爬虫名)

5.启动django
cmd:python manage.py runserver

----------------scrapyd 管理爬虫接口----------------------
1、获取状态

http://127.0.0.1:6800/daemonstatus.json


2、获取项目列表

http://127.0.0.1:6800/listprojects.json


3、获取项目下已发布的爬虫列表

http://127.0.0.1:6800/listspiders.json?project=myproject


4、获取项目下已发布的爬虫版本列表
http://127.0.0.1:6800/listversions.json?project=myproject


5、获取爬虫运行状态

http://127.0.0.1:6800/listjobs.json?project=myproject


6、启动服务器上某一爬虫(必须是已发布到服务器的爬虫)
http://localhost:6800/schedule.json
(post方式,data={"project":myproject,"spider":myspider})


7、删除某一版本爬虫

http://127.0.0.1:6800/delversion.json
(post方式,data={"project":myproject,"version":myversion})


8、删除某一工程,包括该工程下的各版本爬虫
(运行中爬虫无法删除)
http://127.0.0.1:6800/delproject.json
(post方式,data={"project":myproject})

9.取消运行中的爬虫
http://127.0.0.1:6800/cancel.json
(post方式,data={"project":myproject,"job":jobid})


--------------django+scrapy-----------------------------
1.创建django项目,并编写models.py,启动django项目

2.Django项目根目录下创建Scrapy项目
(这是scrapy-djangoitem所需要的配置)
配置Django嵌入,在Scrapy的settings.py中加入以下代码:
import os
import sys
sys.path.append(os.path.dirname(os.path.abspath('.')))
os.environ['DJANGO_SETTINGS_MODULE'] = 'django项目名.settings'
import django
django.setup()

3.编写爬虫
4.item.py中引入Django模型类(pip install scrapy-djangoitem)
from scrapy_djangoitem import DjangoItem
from 子应用 import models
class ScrapyabckgItem(DjangoItem):
# 此处必须起名为django_model,主爬虫中使用item['title']=xxx
django_model = models.AbckgModel

5.pipelines.py中调用save()
class ScrapyabckgPipeline(object):
def process_item(self, item, spider):
# 插入到数据库
item.save()
return item #将item传给下一个管道继续处理

6.启动爬虫(用命令,并非scrapyd启动):scrapy crawl abckg
7.刷新django-admin后台

 

---------------Gerapy 管理界面--------------

安装:

pip install gerapy
配置环境变量:
C:\Users\Administrator\AppData\Roaming\Python\Python36\Scripts
>gerapy init 初始化工作目录
>cd gerapy
>gerapy migrate 迁移生成数据库
>gerapy runserver 启动服务
http://127.0.0.1:8000 访问界面
---------------Gerapy 管理界面使用--------------
添加client:连接远程或本机的scrapyd服务(前提是scrapyd处于开启状态)
添加Projects:将scarpy项目直接放到 /gerapy/projects,刷新页面

为什么部署呢?
部署会让项目更稳定,更高效,增大访问量


scrapyd部署 和 gerapy部署 的区别
相比scrapyd部署的只能查看状态,页面简陋 gerapy更人性化,页面简洁,可操作性强

总结流程:

1启动scrapyd:

  命令:scrapyd

2启动gerapy:

  命令:gerapy runserver

3部署爬虫scrapy 到 scrapyd,在爬虫根目录发布爬虫:

  命令: scrapyd-deploy <target> -p 项目名称

4访问gerapy:

  地址:127.0.0.1:8000

5在gerapy页面 :

  主机管理 --》创建 --》连接scrapyd

6在gerapy页面 :

  点击调度 -----》 会展示出所有的已发布爬虫

7随意对这些爬虫进行 监管,运行

 

ok! 搞定啦!CentOs 部署爬虫在 linux 下同理,只是ip不同罢了 就这!

转载于:https://www.cnblogs.com/canhun/p/11118797.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值