这里有些太长了,其实你可以使用docker tag命令修改名称,并且根据我的实验,修改前后的IMAGEID是一样的。
docker tag registry.cn-shenzhen.aliyuncs.com/test_for_tianchi/test_for_tianchi_submit:1.0 tianchi_test_new:1.0
后台运行快捷键
ctrl+p+q
log,查看最后10条 -f相当于实时显示
docker logs -tf --tail 10 [contailer id]
top,查看容器内的进程
docker top [container id]
查看源数据
docker inspect [container id]
进入正在运行的容器
方式1:
docker exec -it [container id]
方式2:
正在执行当前的代码
docker attach -it [container id]
区别:
exec 进入后开启新终端,可以在里边操作
attach 进入容器正在执行的终端,不会启动新的终端
拷贝命令,容器上拷到主机内
docker cp [container id]:容器内路径 目的主机路径
从主机拷到容器内一般使用挂载
拷贝是一个手动过程,后续使用-v卷的技术,实现自动同步
docker run
docker run -it --rm tomcat
–rm 容器用完就删,适合测试时使用
安装tomcat
docker run -d -p45001:8080 --name tomcat01 tomcat
运行后404了,发现是被阉割过的tomcat
- linux命令缺少
- 没有webapps
阿里云的镜像的原因,默认最小的镜像,不必要的都剔除了,保证最小可运行环境
可以将.dist目录下的拷贝到webapps下
cp -r webapps.dist/* webapps
然后刷新一下,tomcat救出来了
部署ES+kibana
es暴露的端口很多
es十分耗内存
es内容需要挂载出去
官方给的命令:
docker run -d --name elasticsearch --net somenetwork -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:tag
–network 网络配置
删除一些暂时不需要的,最后的内容是
docker run -d --name elasticsearch -p 49200:9200 -p 49300:9300 -e "discovery.type=single-node" elasticsearch:7.6.2
启动后发现他无法启动,启动了自动就关闭了,是因为内存不够导致的,我关闭了几个docker应用,空出了几百M的内存再启动,终于启动成功,占了1.23G的内存
可以通过-e参数进行环境修改
sudo sudo docker run -d --name elasticsearch4 -p 49200:9200 -p 49300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx512m"
elasticsearch:7.6.2
如何使用kibana连接elasticsearch呢?
Docker网络原理
- 可视化 portainer
docker图形化界面管理,提供后台面板供我们操作
官方命令是这样的
docker run -d -p 8000:8000 -p 9000:9000 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce
然后连接9000端口就能看到portainer了
平时很少用,自己测试用一用就可以了
- Rancher(CI/CD)
commit
docker commit
docker commit -m="comment" -a="author"
docker commit -a="wxy" -m="add webapps application" f57a98 tomcat01:1.1.1.2
然后查看
docker images
inspect对比一下,显然多了一层
如果想要保存当前容器的状态,就可以通过commit提交,获得一个镜像
到这里,你就入门了
容器数据卷
docker:将应用和环境打包成一个镜像
如果数据都在容器中,那删除容器,数据就消失了需要数据持久化。
比如MySQL,容器删了,数据库就没了需要MySQL的数据可以存储在本地
容器之间可以数据共享,Docker产生的数据同步到本地
这就是卷技术,也就是目录的挂载,将容器内的目录,挂载到LInux上
容器见也是可以数据共享的
方式1: 直接使用命令挂载
docker run -it -v hostDir:containerDir
sudo docker run -it -v /home/wxy/docker_v_test:/home/docker_v_test 26b77e58432b
查看是否挂载成功
docker inpect [container id]
查看中的mount部分
如果你是在/home目录下挂载的,需要root权限,才能修改文件夹里的内容
安装MySQL
# 获取
docker pull mysql:5.7
# 运行容器,数据挂载,mysql要设置密码
docker run --name some-mysql -e MYSQL_ROOT_PASSWORD=my-secret-pw -d mysql:tag
#我的运行命令是下边这个,他会用本地目录覆盖容器内的目录,但是conf.d覆盖了,/lib/mysql没有被覆盖
-d 后台运行
-p 端口映射
-v 挂在卷
-e 环境配置
docker run -d -p 45306:3306 -v /home/wxy/mysql/conf:/etc/mysql/conf.d -v /home/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456
--name mysql01 mysql:5.7
# 然后可以使用如navicat sqlyog尝试连接,然后创建数据库,创建完成后你会发现data目录下新增加了一个数据库文件
此时即使删除容器,数据也没有丢失
具名挂载和匿名挂载
# 匿名挂载
-v 容器内路径
docker run -d -P --name nginx01 -v /etc/nginx
查看卷的情况
docker volumes ls
如果是一串哈希值,那就是匿名的挂载,因为只写了容器内路径,没有容器外路径
具名挂载 通过-v指定名字
-v 卷名:容器内路径
查看卷路径
docker volume inspect 卷名
卷没有指定路径的情况下,在/var/lib/docker/volumes/xxxxx/_data
具名挂载方便找到卷,大多数情况下使用
如何确定时具名挂载、匿名挂载,还是指定目录挂载(bind mount)
-v 容器内路径(匿名挂载)
-v 卷名:容器内路径(具名挂载)
-v 主机路径:容器内路径(指定路径挂载)
你可以inspect查看Mount中的type,一般是“bind”或者“volume”
拓展
ro:只读
rw:读写
一旦设定容器权限,容器对挂载出来的内容就有限定了,在容器里就不能操作了,只能在宿主机修改,ro,只能从外部改变,默认rw
docker run -d -P --name nginx01 -v volume_name:/etc/nginx:rw nginx
docker run -d -P --name nginx01 -v volume_name:/etc/nginx:ro nginx
方式2: 使用Dockerfile命令挂载
通过脚本可以生成镜像,
"dockerfile1" [New File]
1 FROM centos
2
3 VOLUME ["volume01","volume02"]
4
5 CMD echo "----end----"
6 CMD /bin/bash
-f 指定文件名,不一定非得叫Dockerfile
-t 指定tag
docker build -f dockerfile1 -t wxy/centos .
启动这个容器,有两个自动挂载的数据卷目录,这个卷和外部一定有一个同步的目录
查看挂载路径
sudo docker inspect a3c330af5105
这种方式很常用,因为我们会构建自己的镜像,如果构建时没有挂载卷,要手动挂载,-v
数据卷容器
两个或者多个mysql共享数据
sudo docker run -itd --name centos03 --volumes-from centos01 wxy/centos
此时在centos01的卷中新建文件,在03中也会出现;同理,03创建,01中也会出现,实现了双向的共享。
你查看就会发现,他们指向了相同的主机目录
数据卷的生命周期,会一直持续到没有容器使用为止,但是一旦你持久化-v到了本地,他就不会被删除
Dockerfile
Docker镜像的构建文件
- 编写Dockerfile文件
- docker build构建镜像
- docker run运行镜像
- docker push发布镜像(docker hub、 阿里云镜像仓库)
在dockerhub里点开tag,他会跳转到github的一个Dockerfile里
很多官方镜像都是基础包,很多功能都没有,我们通常需要自己搭建
Dockerfile构建过程
基础知识
- 每个保留关键字都是大写
- 从上到下顺序执行
- #表示注释
- 每一个指令都会创建提交一个新的镜像层并提交
很多指令:
- FROM :基础镜像:一切从这里开始构建
- MAINTAINER :维护者信息,谁写的
- RUN: 镜像构建时需要运行的命令
- ADD:步骤:在centos上做一个tomcat镜像,这个tomcat的压缩包就是我们要add进去的
- WORKDIR:镜像的工作目录
- VOLUME:挂载到哪个位置
- EXPOSE:指定暴露端口
- CMD:指定这个容器启动时要运行的命令(只有最后一个会生效,可被替代)
- ENTRYPOINT:指定容器启动时命令,可以追加命令
- ONBUILD : 当构建一个被继承的Dockerfile,就会运行ONBUILD
- COPY :很像add命令,将文件拷贝到镜像中
- ENV:构建时设置环境变量
Dockerfile实战测试
创建一个自己的CentOS
dockerfile如下
1 FROM centos
2 MANTAINER wxy wxy@123.com
3
4 ENV MYPATH /usr/local
5
6 WORKDIR $MYPATH
7
8 RUN yum -y install vim
9 RUN yum -y install net-tools
10
11 EXPOSE 80
12
13 CMD echo $MYPATH
14 CMD echo "----end----"
15 CMD /bin/bash
构建镜像
docker build mydocker_centos
sudo docker build -f mydockerfile_centos -t wxy_centos:0.0.1 .
你进去之后他就直接到了你设置的WORKDIR
我们可以列出本地镜像的变更历史
CMD与ENTRYPOINT
CMD命令是在docker run时生效的,如果想给他追加命令,会覆盖CMD的命令。比如下边这样的命令,最后追加的命令会覆盖dockerfile中CMD的命令
sudo docker run -it mycentos0.0.2 ls -a
ENTRYPOINT是这样的,他可以追加
1 FROM centos
2 ENTRYPOINT ["ls","-a"] ~
下边两条都可以正常使用,是直接拼接在命令后边的
sudo docker run test_centos:0.0.1
sudo docker run test_centos:0.0.1 -l
实战tomcat镜像
- 准备镜像文件 tomcat压缩包 jdk压缩包
- 编写Dockerfile文件
ADD 命令会自动解压
ADD 压缩包名 解压路径
1 FROM centos
2 MAINTAINER wxy wxy@123.com
3
4 COPY readme.txt /usr/local/readme.txt
5
6 ADD apache-tomcat-9.0.45.tar.gz /usr/local/
7 ADD jdk-8u11-linux-x64.tar.gz /usr/local/
8
9 RUN yum -y install vim
10 ENV MYPATH /usr/local
11
12 WORKDIR $MYPATH
13
14 ENV JAVA_HOME /usr/local/jdk1.8.0_11
15 ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
16 ENV CATALINA_HOME /usr/local/apache-tomcat-9.0.45
17 ENV CATALINA_BASE /usr/local/apache-tomcat-9.0.45
18 ENV PATH $PATH:$JAVA_HOME/bin:$CATALINA_HOME/lib:$CATALINA_HOME/bin
19
20 EXPOSE 8080
21
22 CMD /usr/local/apache-tomcat-9.0.45/bin/startup.sh && tail -F /usr/local/apache-tomcat-9.0.45/bin/log/catalina.out
构建
docker build -t diytomcat:0.0.1 .
启动
sudo docker run -d -p 48082:8080 --name diytomcat01 -v /home/wxy/dockerfile/tomcatbuild/test:/usr/local/apache-tomcat-9.0.45/webapps/test -v /home/wxy/dockerfile/tomcatbuild/tomcatlog:/usr/local/apache-tomcat-9.0.45/logs diytomcat:0.0.1
- 发布项目(由于做了挂载,我们直接在主机做修改就行)
然后
cd ~/dockerfile/tomcatbuild/test
mkdir WEB-INF && cd WEB-INF
sudo vim web.xml
web.xml文件如下
<?xml version="1.0" encoding="UTF-8"?>
<web-app xmlns="http://java.sun.com/xml/ns/javaee"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemalocation="http://java.sun.com/xml/ns/javaee
http://java.sun.com/xml/ns/javaee/web-app_2_5.xsd"
version="2.5">
</web-app>
目录是这样的
一个jsp文件
vim index.jsp
文件内容如下
<%@ page language= "java" contentType= "text/html; charset=UTF-8" pageEncoding="UTF-8"%>
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
<title>test diytomcat:</title>
</head>
<body>
Hello world!<br/>
<%
out.println("111111+"+request.getRemoteAddr());
System.out.println("----testweblogs");
%>
</body>
</html>
然后通过下边的即可访问test项目
ip:48082/test/
然后去这个目录下打印~/dockerfile/tomcatbuild/tomcatlogs$
,就能看到日志了
cat catalina.out
发布自己的镜像
push到dockerhub,需要先登录
需要先修改名字
docker tag reponame/image:tag image:tag
docker push diytomcat
直接使用阿里云的镜像服务吧,如果是在ecs,还可以使用vpc来push
似乎你也可以不预先在阿里云创建仓库,直接在push时写仓库地址就好
比如下边这样,buyongyuxianchuangjiancangku,这个仓库我就没有预先创建
wxy@Ubuntu18:~$ sudo docker tag 202fd89cd388 registry-vpc.cn-zhangjiakou.aliyuncs.com/wangxy_docker/buyongyuxianchuangjiancangku:0.0.1
wxy@Ubuntu18:~$ sudo docker push registry-vpc.cn-zhangjiakou.aliyuncs.com/wangxy_docker/buyongyuxianchuangjiancangku:0.0.1
Docker网络(铺垫 容器编排 集群部署)
理解docker网络 docker0
- 本机回环
- 阿里云内网
- docker0地址
docker如何处理网络呢?
- 我们先启动一个tomcat
sudo docker run -d -P --name tomcat001 tomcat
查看docker内部的ip
docker exec -it tomcat001 ip addr
那么我们能不能ping通docker的容器内部呢
ping 172.17.0.3
结果可以ping通的,linux可以ping通容器内部
- 原理
- 每安装一个docker容器,docker就会给docker容器分配一个ip
- 只要安装了docker,就会有网卡docker0,桥接模式,使用的技术是evth-pair技术
这时你继续ip addr
你会发现多了一个网卡 veth,而且还是成对的,见最下两个 228 229 ; 230 231
。我们发现容器带来的网卡都是一对一对的,就是veth-pair技术,都是成对出现的,一端连着协议,另一端彼此相连
正因为有这个特性,通常我们用veth-pair这个技术充当一个桥梁,连接各种虚拟网络设备
openstack Docker OVS连接,都是使用veth-pair技术
- 两个docker能不能ping通呢
答案是可以的,因为他们是通过docker0相连的,所有的容器,不指定网络的情况下,都是通过docker0的,会给所有的容器分配一个ip
它使用的Linux的桥接
docker中的网络接口都是虚拟的,虚拟的转发效率高(内网传递文件)
只要容器删除,对应的网桥一对就没了
- 高可用! 如何做到项目不重启,数据库ip换掉了,我们希望可以处理这个问题,通过名字来进行服务的访问
docker network ls
docker network inspect 00b0741fc7ab
我们现在不建议使用–link,他就是修改了hosts,我们现在希望自定义网络,不适用docker0,docker0不适用于容器名访问
自定义网络
容器互联
查看所有的docker网络 docker network ls
网络三种模式
bridge :桥接(默认,自己创建也是用bridge模式)
none:不配置网络,一般不用
host:和宿主机共享网络
container:容器内网络连通(用得少!)
测试
我们直接启动的命令,默认是有这样的操作的,就是docker0,也就是bridge
docker run -d -P --name tomcat001 tomcat
docker run -d -P --name tomcat001 --net bridge tomcat
docker0:默认,域名不能访问
我们可以自定义一个网络
--driver bridge 桥接模式
--subnet 192.168.0.0/16 子网
--gateway 192.168.0.1 网关
docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet
然后就能看到,我们的mynet出现了
然后你就可以使用inspect查看你自己创建的网络
我们创建tomcat,把他发到我们自己的网络里
docker run -d -P --name tomcat-net-002 --net mynet tomcat
docker run -d -P --name tomcat-net-003 --net mynet tomcat
这时拟在inspect查看mynet,就会看到这两个容器了
下边的两个都可以使用
然后这时你就可以使用容器名ping了
docker exec -it tomcat-net-002 ping 192.168.0.3
sudo docker exec -it tomcat-net-002 ping tomcat-net-003
我们自定义的网络,docker已经帮我们维护好了关系,docker0是没有的,所以平时推荐使用这个自定义网络功能
好处
redis:不同的集群使用不同的网络,保证集群是安全和健康的
网络连通
不同网段直接连通呢?
docker nerwork connect [opt] network container
测试打通tomcat001到nynet
docker network connect mynet tomcat001
然后inspect
docker network inspect mynet
他居然直接把这个容器加入到mynet的网络中了,这就是一个容器,两个ip
docker exec -it tomcat001 ping tomcat-net-002
ping一下,可以ping通,注意只联通了tomcat001,其他的是没有联通的,tomcat和docker0上的也可以ping通吗?
假设要跨网段,就需要使用docker network connect进行联通
实战 部署Redis集群
分片+高可用+负载均衡
6个,三对主从,主挂掉了,从要赶紧顶上
创建redis网络
docker network create redis --subnet 172.38.0.0/16
通过脚本创建redis
for port in $(seq 1 6); \
do \
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat << EOF > /mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done
配置书写成功
开始运行
docker run -p 46371:6379 -p 46381:16379 --name redis-1 \
-v /mydata/redis/node-1/data:/data \
-v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.11 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 46372:6379 -p 46382:16379 --name redis-2 \
-v /mydata/redis/node-2/data:/data \
-v /mydata/redis/node-2/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.12 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 46373:6379 -p 46383:16379 --name redis-3 \
-v /mydata/redis/node-3/data:/data \
-v /mydata/redis/node-3/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.13 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 46374:6379 -p 46384:16379 --name redis-4 \
-v /mydata/redis/node-4/data:/data \
-v /mydata/redis/node-4/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.14 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 46375:6379 -p 46385:16379 --name redis-5 \
-v /mydata/redis/node-5/data:/data \
-v /mydata/redis/node-5/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.15 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 46376:6379 -p 46386:16379 --name redis-6 \
-v /mydata/redis/node-6/data:/data \
-v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 637${port}:6379 -p 1637S{port}:16379 --name redis-${port} \
-V /mydata/redis /node - $ {port}/data:/data \
-V /mydata/redis/node - $ {port}/conf/redis . conf :/etc/redis/redis . conf \
-d --net redis --ip 172. 38.0.1${port} redis:5.0. 9-alpine3.11 redis-server /etc/redis/redis. conf; \
进入一个redis容器
docker exec -it redis-1 /bin/sh
然后在容器里
redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1
进入集群
redis-cli -c
cluster info
cluster nodes
然后
set a b
你会发现他在3里边设置的,理论上3的从机里也会有,即使3挂掉了,数据也会在,这才叫高可用
然后执行
get a
看是否能找到这个值,如果找到了,就说明是高可用的
可以看到他是在4 get到的,而4是3的从机
然后你去使用redis node,就会看到节点的替换关系了
Docker Compose
教程 https://docs.docker.com/compose/gettingstarted/
compose yaml 规则
三部分!
version:""版本 第一部分
services: 第二部分
服务1:web
# 配置
image:
build:
服务2:redis
#配置
confi:
其他配置 第三部分
卷 网络 全局规则
volumes
network
compose 部署wprdpress
https://docs.docker.com/samples/wordpress/
docker-compose up -d后台启动