什么是docker compose
定义:compose项目是Docker官方的开源项目,负责实现对Docker容器集群的快速编排
快速编排:站在项目角度将一组相关联容器整合在一起,对这组容器进行按照指定顺序启动
compose定位对于多个docker容器管理
docker compose环境搭建
在线安装
curl -L https://github.com/docker/compose/releases/download/1.25.5/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
离线安装
1. 下载 docker-compose 脚本
2. 放入 /usr/local/bin
3. 修改权限 chmod +x /usr/local/bin/docker-compose
卸载
rm /usr/local/bin/docker-compose
docker-compose案例
- 创建一个项目 mkdir ems
- 在ems项目中创建docker-compose.yml 模板文件
# 代表docker-compose项目的版本号
version: "3.0"
services:
tomcat:
image: tocat:8.0 # 镜像名,类似于docker run 指定的镜像名称
ports:
- 8080:8080 # 代表宿主机和容器中端口映射,类似于docker run -p 参数
tomcat01:
image: tocat:8.0
ports:
- 8081:8080
redis:
image: redis:5.0.12
ports:
- 6379:6379
- 启动docker-compose服务
docker-compose up -d
docker-compose 搭建kafka
vim docker-compose-kafka.yml
# 代表docker-compose项目的版本号
version: "3.0"
services:
zookeeper:
image: wurstmeister/zookeeper
container_name: zookeeper
ports:
- 2181:2181 # 代表宿主机和容器中端口映射,类似于docker run -p 参数
environment:
ZOO_MY_ID: 1
ZOO_SERVERS: server.1=192.168.241.134:2888:3888
volumes:
- /opt/data/zookeeper/data:/data
- /opt/data/zookeeper/logs:/datalog
- /opt/data/zookeeper/conf:/conf
restart: always
kafka:
image: wurstmeister/kafka
container_name: kafka
ports:
- 9092:9092
depends_on:
- zookeeper
environment:
KAFKA_BROKER_ID: 1
KAFKA_ZOOKEEPER_CONNECT: 192.168.13.44:2181
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://192.168.13.44:9092
KAFKA_ADVERTISED_PORT: 9092
KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9092
KAFKA_LOG_DIRS: /opt/data/kafka/logs
volumes:
- /var/run/docker.sock:/var/run/docker.sock
restart: always
KAFKA_BROKER_ID:指定BrokerId,如果不指定,将会自己生成
KAFKA_ADVERTISED_HOST_NAME:广播主机名称,一般用IP指定
KAFKA_ZOOKEEPER_CONNECT:Zookeeper连接地址,格式:zoo1:port1,zoo2:port2:/path
KAFKA_LISTENERS:Kafka启动所使用的的协议及端口
KAFKA_ADVERTISED_LISTENERS:Kafka广播地址及端口,也就是告诉客户端,使用什么地址和端口能连接到Kafka,这个很重要,如果不指定,宿主机以外的客户端将无法连接到Kafka,比如我这里因为容器与宿主机做了端口映射,所以广播地址采用的是宿主机的地址及端口,告诉客户端只要连接到宿主机的指定端口就行了
启动kafka服务
docker-compose -f docker-compose-kafka.yml up -d
kafka实例
创建topic testtopic
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testtopic
查询topic
bin/kafka-topics.sh --zookeeper 192.168.241.134:2181 --list
模拟消息生产和消费
发送消息到241.134
bin/kfaka-console-producer.sh --broker-list 192.168.241.134:9092 --topic testtopic
从241.132接收消息
bin/kfaka-console-producer.sh --bootstrap-server 192.168.241.134:9092 --topic testtopic --from-beginning