使用Docker部署Scrapy爬虫



使用Docker部署Scrapy爬虫


1、目的与步骤


环境:Ubuntu14.04 LTS,爬虫程序使用scrapy开发,功能比较简单,就是下载百度贴吧第一页中所有帖子中的图片。


目的:将基于Scrapy开发的爬虫程序发布到docker容器中。


步骤:
a. 在主机上使用setuptools打包python程序,包括一个运行爬虫的命令行;
b. 定义dockerfile,内容包括安装ssh、pip、setuptools、scrapy,并挂载volume(/data)用来作为下载路径,然后创建镜像;
c. 由镜像启动容器,同时挂载主机目录(爬虫项目目录),然后安装程序;
d. 执行命令开始下载图片。


2、步骤一:打包爬虫程序


前提:在主机上安装pip,使用pip安装setuptools。


主机上的项目目录结构为:


baidutieba
|--baidutieba
|  |--spiders
|  |  |--__ini
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值