gerapy+scrapyd部署(scrapy可视化web管理)【基于python3搭建scrapy可视化管理】

gerapy是基于scrapyd的可视化管理平台

类似的可视化管理凭条还有很多,但是都需要先用scrapyd打包scrapy项目

一,搭建scrapyd服务

  • 首先我们要有scrapy项目,项目目录如下图

        a,先安装scrapyd所需要的包

pip install scrapyd  # 服务端
pip install scrapyd-client  # 客户端

      b,修改scrapy项目配置,找到项目根目录下的scrapy.cfg的文件

修改内容如下

c,将scrapyd-deploy文件复制到scrapy.cfg相同目录

d,检查项目配置,到项目下,在scrapy.cfg相同目录下,在未选中文件的状态下,按住Shift键,点击鼠标右键,在弹出才选型中找到“在此处打开powershell窗口”并点击,在弹出的命令行窗口输入如下内容:

python scrapyd-deploy -l   # -l是字母“L”的小写形式,不是数字 1,也不是大写字母I

此时会报错提示,“。。。。。”

我们打开scrapyd-deploy文件,找到“from scrapy.utils.http import basic_auth_header”,将此行注释掉,
并添加"from w3lib.http import basic_auth_header",达到替换的目的

我们再回到命令函窗口中执行刚才的命令“python scrapyd-deploy -l ”,看到如下图

如上图就表示我们的配置没有问题。

e,接下来我们先启动scrapyd服务,(如果已经在远程服务器上启动scrapyd服务并在scrapy.cfg中配置相应地址的忽略此步骤)

同样,在任意路径打开一个新的命令行窗口(必须在项目录下启动服务),输入“scrapyd”并回车,如下图

如上图说明scrapyd服务已经启动【启动之后不要关!启动之后不要关!启动之后不要关!】。

 

二,将项目部署到gerapy上进行管理

1,先安装gerapy

pip install gerapy

2,检测是否安装成功,如下说明安装成功,否则重新安装

3,新建文件,进入建好的文件夹,打开命令行窗口,初始化 gerapy 配置,输入如下指令

gerapy init

如下图

4,进入gerapy目录下,[提示:有两个目录,project目录就是放我们打包好的scrapy项目整体] ,初始化 gerapy 的数据库,在刚才的命令行窗口中输入“gerapy migrate”,如下图

5,创建gerapy超级用户,这里不创建的话,第一次无法访问web页面,创建用户指令

# gerapy initadmin  # 这是初始化用户,账号密码都是admin,这样一般用在测试环境中
gerapy createsuperuser  # 创建自定义账号

如图

6,启动 gerapy 服务,输入

gerapy runserver 0.0.0.0:8000 # 在本地也可以直接 gerapy ruserver 就行

如图

7,打开浏览器访问“http://127.0.0.1:8000/”,

如图

8,登陆进去之后,点击左边“主机管理”,再点右边“创建”,

将scrapyd服务器地址配置到这里

创建之后如图

9,将scrapy项目放到 "/gerapy/project/" 下

再到浏览器刷新,点击左边的“项目管理”,发现我们的项目进来了

10,在gerapy中再次打包项目,在上图的页面中,点击“部署”

11,部署项目

12,部署成功之后,我们就可以手指点一点,就可以启动项目了

我们还可以设置定时任务

至此分享完结。

如需转载,请注明转自哪里

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python是一种高级编程语言,而Django和ScrapyPython的两个流行的库。这些库都可以用于构建Web应用程序和爬虫。 首先,Python是一种易学易用的编程语言,它具有简洁的语法和强大的功能,非常适合初学者和专业开发人员。它在许多领域都有广泛的应用,包括Web开发、数据分析和人工智能等。 然后,Django是一个基于Python的开发框架,它提供了一系列的工具和组件,使开发Web应用程序变得更加简单和高效。使用Django可以快速构建安全、可扩展和易维护的Web应用程序。它提供了强大的ORM(对象-关系映射)功能,可以使用Python代码来操作数据库。 最后,Scrapy是一个强大的Python爬虫框架,用于抓取和提取互联网上的数据。它提供了简单易用的API和丰富的功能集,可用于构建高性能的网络爬虫。Scrapy支持异步并发请求,具有自动重试和错误处理等功能。它还提供了强大的数据提取功能,可以将爬取的数据存储到数据库或导出为不同的格式。 为了可Python、Django和Scrapy,可以使用各种库和工具。例如,可以使用Matplotlib、Seaborn和Plotly等库创建各种图表来展示数据。此外,可以使用Django的模板语言和前端框架如Bootstrap来设计和构建用户界面。还可以使用Django的内置管理界面来可管理数据库中的数据。 总之,Python、Django和Scrapy是强大的工具和库,可以用于开发Web应用程序和爬虫。通过使用适当的可库和技术,可以为这些应用程序创建出色的可效果,使用户能够更好地理解和分析数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值