docker部署scrapy项目

将scrapy爬虫或者分布式爬虫通过docker发布到docker hub 上

1.准备工作,本机有docker
2.在项目的根目录下创建 requirements.txt 和Dockerfile 文件(Dockerfile文件没有后缀名)
3.在requirements.txt 列出项目需要的第三方库+版本 ,也可以不加版本:
Scrapy>=1.8.0
scrapy-redis>=0.7.1
pymongo>=3.12.1
4.在Dockerfile文件中:
FROM python:3.8 #自己Python版本
ENV PATH /usr/local/bin:$PATH
ADD . /code
WORKDIR /code
RUN pip install -r requirements.txt
CMD scrapy crawl qsbk_spider # qsbk_spider 这个名字随意
查看自己主机外网IP:sudo apt-get install curl curl ifconfig.me 即可查看
5 将数据库和Redis的IP改成宿主机的IP,这样docker就可以连接redis 和MongoDB
6. sudo docker build -t qsbk_spider:latest . 构建镜像,加latest 按指定版本下载,否则,下最新版本,注意后面有个点,qsbk_spider这是爬虫名
7. 在docker中运行镜像:docker run ID/名字
docker 常见操作
. sudo docker images
. sudo docker run ef9f4fa69b0f
. sudo docker rmi -f d237c372d252 强制删除
. sudo docker rmi d237c372d252 普通删除
. docker ps // 查看所有正在运行容器
docker stop containerId // containerId 是容器的ID
docker ps -a // 查看所有容器
docker ps -a -q // 查看所有容器ID
docker start $(docker ps -a -q) // start启动所有停止的容器
docker stop $(docker ps -a -q) // stop停止所有容器
docker rm $(docker ps -a -q) // remove删除所有容器
docker kill 容器id/容器名字

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值