docker 部分插件安装命令

安装npshttps://github.com/ehang-io/nps/blob/master/docs/run.md
//查看docker版本,docker命令大全url=https://www.runoob.com/docker/docker-command-manual.html
//docker 配置查看 https://hub.docker.com/
    docker version
//查看已安装的镜像或容器,包括redis,MySQL等安装过的镜像
    docker images
//列出容器命令 docker ps [OPTIONS] 
//[OPTIONS]  参数-a :显示所有的容器,包括未运行的。-f :根据条件过滤显示的内容。--format :指定返回值的模板文件。-l :显示最近创建的容器。-n :列出最近创建的n个容器。--no-trunc :不截断输出。-q :静默模式,只显示容器编号。-s :显示总的文件大小。
//输出内容 CONTAINER ID: 容器 ID。IMAGE: 使用的镜像。COMMAND: 启动容器时运行的命令。CREATED: 容器的创建时间。
//STATUS: 容器状态<created(已创建)restarting(重启中)running(运行中)removing(迁移中)paused(暂停)exited(停止)dead(死亡)>。
//PORTS: 容器的端口信息和使用的连接类型(tcp\udp)。NAMES: 自动分配的容器名称。
    docker ps -a
//首次运行acti mq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
    docker run -d --name activemq -p 61617:61616 -p 8162:8161 webcenter/activemq
//启动容器 非首次运行acti mq 通过docker ps -a 获取容器ID,使用启动容器命令 docker start <容器ID>||<容器别名>
    docker start ae77a442c80b
//重启容器
docker restart ae77a442c80b
//停止一个容器,例如停止容器ID为ae77a442c80b的actmq ,使用停止容器命令 docker stop <容器 ID>|<容器别名>
    docker stop ae77a442c80b
//删除一个镜像或容器,使用docker rm <容器ID>命令,-f 则不需要确认
    docker rm -f 1e560fca3906
    //查询docker 内存占用情况
   docker stats --no-stream 
############################################安装nps内网穿透工具############################################
docker pull ffdfgdfg/nps
https://minhaskamal.github.io/DownGit/#/home?url=https://github.com/ehang-io/nps/tree/master/conf
下载conf文件夹并解压,或前往项目主页自行下载(升级请忽略)
继续阅读文档修改配置文件(升级请忽略)
启动:docker run -d --name nps --net=host -v <本机conf目录>:/conf ffdfgdfg/nps
docker run -d --name nps --net=host -v /usr/local/nps/conf:/conf ffdfgdfg/nps

请确保为conf文件夹
查看日志docker logs nps

nps的客户端npc
一款轻量级、功能强大的内网穿透代理服务器。支持tcp、udp流量转发,支持内网http代理、内网socks5代理,同时支持snappy压缩、站点保护、加密传输、多路复用、header修改等。支持web图形化管理,集成多用户模式。
使用方式
docker pull ffdfgdfg/npc
下载conf文件夹并解压,或前往项目主页自行下载(升级请忽略)
继续阅读文档按照不同的启动方式启动(升级请忽略)
无配置文件:docker run -d --name npc --net=host ffdfgdfg/npc -server=<ip:port> -vkey=<web界面中显示的密钥> <以及一些其他参数>
配置文件:docker run -d --name npc --net=host -v <本机conf目录>:/conf ffdfgdfg/npc -config=/conf/npc.conf
docker run -d --name npc --net=host ffdfgdfg/npc -server=81.71.66.164:8082 -vkey=do1cloudlocal
参数附在后面即可 请确保为conf文件夹下的npc.conf
查看日志docker logs npc
############################################安装activemq############################################
#查询镜像
docker search activemq
#拉取镜像,此处推荐使用webcenter/activemq
docker pull webcenter/activemq
#首次运行acti mq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
#运行后,浏览器访问8162端口,就可以查看到activemq管理端
 docker run -d --name activemq -p 61617:61616 -p 8162:8161 webcenter/activemq
 
 ############################################安装rabbitmq############################################
#拉取镜像,此处推荐使用rabbitmq:management,rabbitmq版本不带控制台,无法通过浏览器访问后台地址,故推荐使用带management标签的版本rabbitmq:management
#docker pull rabbitmq
docker pull rabbitmq:management
#首次运行rabbitmq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
#运行后,浏览器访问15672 端口,就可以查看到rabbitmq管理端,命名为设置的admin/admin
 #docker run -d --name rabbitmq -p 5672:5672 -p 15672:15672 -v /usr/local/rabbitmq/data:/var/lib/rabbitmq  -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin rabbitmq 
 docker run -d --name rabbitmq -p 5672:5672 -p 15672:15672 -v /usr/local/rabbitmq/data:/var/lib/rabbitmq  -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin rabbitmq:management

############################################安装dockercompose组件############################################
#安装dockercompose组件
apt  install docker-compose
#查看dockercompose版本
docker-compose version  
#使用dockercompose组件构建命令,参考文件 https://blog.51cto.com/9291927/2310444
docker-compose -f XXX.yml up -d
############################################安装Jenkins#####################################################
//安装Jenkins之前,需要安装jdk,jdk在容器外安装也可以使用
//拉取Jenkins镜像
docker pull jenkins/jenkins
//首次运行Jenkins,非首次运行请使用docker start 命令启动, --restart=always 系统启动时自动启动
docker run -d -p 8082:8080 -p 50000:50000 --restart=always -v jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkins docker.io/jenkins/jenkins
docker run -d -p 9999:8080 -p 50000:50000 --restart=always -v /root/jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkins docker.io/jenkins/jenkins

#获取管理员密码,
//进入docker容器 使用命令 docker exec -u 0 -it <容器ID>  /bin/bash #-u 0是使用root权限 9f9992ec0a4e是Jenkins的容器id
docker exec -u 0 -it 9f9992ec0a4e  /bin/bash
//在进入容器后,查看密码命令,执行后返回的就是密码
cat /var/jenkins_home/secrets/initialAdminPassword
f0f1d3c7f78a49409efd09c489f4dd56
//安装中文语言包
Manage Jenkins --> Manage Jenkins-->available -->filter 搜索Localization: Chinese (Simplified) 点击安装  安装进度可以在updateCenter中查看

############################################安装mysql#####################################################
//拉取MySQL镜像
docker pull mysql
//首次启动MySQL,#如果不需要挂载数据到外部系统,则不需要 -v 后面参数, -v参数中 冒号前面为挂载到外部系统的目录,冒号后面为docker容器中的目录
docker run -it -d -p 3306:3306 --name docker_mysql -v $PWD/conf/my.cnf:/usr/local/mysql/my.cnf -v $PWD/logs:/usr/local/mysql/log -v $PWD/data:/usr/local/mysql/data -e MYSQL_ROOT_PASSWORD=123456 docker.io/mysql
//进入容器内部
docker exec -it docker_mysql bash
//登录MySQL,输入密码
mysql -u root -p
//使用MySQL数据库
use mysql
//设置远程访问权限
grant all privileges on *.*  to 'root'@'%';
//刷新缓存
FLUSH PRIVILEGES;
//更改MySQL 8 采用caching_sha2_password,如果需要更改为旧版本密码策略,使用下面语句更改
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';


############################################安装fastDFS#####################################################
//查找Docker Hub上的fastdfs镜像
docker search fastdfs
//拉取镜像
docker pull delron/fastdfs
//启动tracker 首次启动 二次启动 可以使用 docker start tracker
//跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的 storage server和 group,每个 storage 在启动后会连接 Tracker,
//告知自己所属 group 等信息,并保持周期性心跳。 
docker run -dti --network=host --name tracker -v /var/fdfs/tracker:/var/fdfs delron/fastdfs tracker
//4.启动storage服务 IP 192.168.74.128 首次启动 二次启动 可以使用 docker start storage
//存储服务器,主要提供容量和备份服务;以 group 为单位,每个 group 内可以有多台 storage server,组内的storage server上的数据互为备份
docker run -d --network=host --name storage -e TRACKER_SERVER=192.168.74.128:22122 -v /home/storage:/var/fdfs -e GROUP_NAME=group1 delron/fastdfs storage
//该版本的fastdfs自带nginx 默认端口8888 
############################################安装mongoDB#####################################################
//查询服务器中MongoDB镜像
docker search mongo
//拉取最近的镜像
docker pull mongo
//首次运行 #如果不需要挂载数据到外部系统,则不需要 -v 后面参数, -v参数中 冒号前面为挂载到外部系统的目录,冒号后面为docker容器中的目录
docker run -itd  --name mongo -p 27017:27017 -v /usr/local/mongo/db:/data/db  -e MONGO_INITDB_ROOT_USERNAME=root -e MONGO_INITDB_ROOT_PASSWORD=root -d mongo --auth
//不需要指定账户的话
docker run -itd  --name mongo -p 27017:27017 -v /usr/local/mongo/db:/data/db -d mongo --auth
//MongoDB 管理工具下载 https://nosqlbooster.com/downloads

############################################安装redis#####################################################
//拉取最近的镜像
docker pull redis
//首次启动redis
##############单机模式#############################
docker run -itd --name redis -p 6379:6379 redis
##############集群模式############################# 参考文件:https://www.cnblogs.com/qianbing-li/p/11357068.html
#创建容器
docker create --name redis-node01 --net host -v /data/redis-data/node01:/data redis --cluster-enabled yes --cluster-config-file nodes-node-01.conf --port 6379
docker create --name redis-node02 --net host -v /data/redis-data/node02:/data redis --cluster-enabled yes --cluster-config-file nodes-node-02.conf --port 6380
docker create --name redis-node03 --net host -v /data/redis-data/node03:/data redis --cluster-enabled yes --cluster-config-file nodes-node-03.conf --port 6381
#启动容器
docker start redis-node01 redis-node02 redis-node03
#进入redis-node01容器进行操作
docker exec -it redis-node01 /bin/bash
#组建集群(注意端口的变化),提示创建分片,选择yes
redis-cli --cluster create 192.168.74.128:6379 192.168.74.128:6380 192.168.74.128:6381 --cluster-replicas 0
#查看集群信息:
root@91df3e5228b1:/data# redis-cli
127.0.0.1:6379> CLUSTER NODES

############################################部署zookeeper集群############################################
#拉取zookeeper镜像
docker pull zookeeper
# 配置集群 https://hub.docker.com/_/zookeeper
#官方推荐方式,使用docker-compose安装(docker-compose在上面有提及安装方式).在https://hub.docker.com/_/zookeeper上拷贝stack.yml的内容到安装docker容器的主机上启动以下命令
docker-compose -f stack.yml up -d
#执行docker-compose安装后,使用docker ps -a 查看是否有该镜像,有的话便可以直接执行下面命令起送
#合并启动
docker start dockercompose_zoo1_1 dockercompose_zoo2_1 dockercompose_zoo3_1
#或者分别启动
docker start dockercompose_zoo1_1
docker start dockercompose_zoo2_1
docker start dockercompose_zoo3_1

############################################安装solr############################################
#拉取solr镜像
docker pull solr
#单机版 
#运行创建容器
docker run -p 8983:8983 --name solr -t solr
#将容器中的配置文件拷贝到外部系统/var/solr目录
docker cp solr:/opt/solr/ /var/solr/
#赋予目录下所有文件最高操作权限, -R为循环遍历赋予权限
chmod -R 777 /var/solr/
#将容器中data内容拷贝到外部系统 /usr/local/solr目录
docker cp solr:/var/solr /usr/local/solr/
#赋予目录下所有文件最高操作权限, -R为循环遍历赋予权限
chmod -R 777 /usr/local/solr/
#删除容器后,-f 为强制删除,建议停止容器后再删除,重新使用下面挂载外部目录方式创建容器
docker rm -f solr
#重新创建容器并将配置文件夹挂载到var/solr目录,将数据文件夹挂载到/usr/local/solr 目录
docker run -d -p 8983:8983 --name solr -v /var/solr:/opt/solr -v /usr/local/solr:/var/solr -t solr
#进入solr容器
docker  exec  -it  solr  /bin/bash
#创建core实例,拷贝默认配置到需要创建的core目录,未指定前在容器/opt/solr/server/solr/configsets/_default/conf/,指定外部挂载后,在挂载目录中
#容器数据默认为/var/solr/data目录,挂载后在/usr/local/solr/data
#外部使用以下命令进行复制
cp -r /var/solr/server/solr/configsets/_default/conf/ /usr/local/solr/data/user
#赋予操作权限,否则后台创建字段时
chmod -R 777 /usr/local/solr/data/user

############################################安装jaeger############################################
# 多合一版本安装
#拉取最新版镜像
docker pull jaegertracing/all-in-one
#首次运行(依赖于zipkin)
docker run -d --name jaeger -e COLLECTOR_ZIPKIN_HTTP_PORT=9411 -p 5775:5775/udp -p 6831:6831/udp -p 6832:6832/udp -p 5778:5778 -p 16686:16686 -p 14268:14268 -p 9411:9411 jaegertracing/all-in-one

############################################安装hadoop############################################
#拉取镜像sequenceiq/hadoop-docker
docker pull sequenceiq/hadoop-docker
#运行hadoop单机版,50070是namenode的页面(主页面),50075是datanode的页面,50090是status的页面,9000是客户端使用hdfs协议连接的端口
#浏览器打开50070端口,查看是否能够
docker run -i -t --name hadoop -p 50070:50070 -p 9000:9000 -p 8088:8088 -p 8040:8040 -p 8042:8042  -p 49707:49707  -p 50010:50010  -p 50075:50075  -p 50090:50090 sequenceiq/hadoop-docker /etc/bootstrap.sh -bash

############################################安装memcached############################################
#拉取memcached镜像
docker pull memcached
#首次运行memcached,-m 默认启动 memcached设置的最大容量是 64M,设置其他的容量,如 128M
docker run -d --name memcached -p 11211:11211 memcached -m 256

############################################安装kafka############################################
#拉取kafka镜像,安装参考https://www.cnblogs.com/telwanggs/p/10857182.html
docker pull wurstmeister/kafka
#首次运行,kafka依赖zookeeper,运行前需要安装并启动zookeeper,KAFKA_AUTO_CREATE_TOPICS_ENABLE参数设置是够启用自动创建话题
docker run -d --name kafka --publish 9092:9092 \
-e KAFKA_BROKER_ID=0 \
-e KAFKA_AUTO_CREATE_TOPICS_ENABLE=true \
-e KAFKA_ZOOKEEPER_CONNECT=192.168.74.128:2182 \
-e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 \
-e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.74.128:9092  wurstmeister/kafka

############################################安装consul注册中心集群############################################
#参考文件https://www.cnblogs.com/zhouqi666/p/11894670.html 
docker pull consul
#1.启动第一个节点, 叫consul1
 docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 consul agent -server -bootstrap-expect 2 -ui -bind=0.0.0.0 -client=0.0.0.0 
#端口详解
#8500 : http 端口,用于 http 接口和 web ui访问;
#8300 : server rpc 端口,同一数据中心 consul server 之间通过该端口通信
#8301 : serf lan 端口,同一数据中心 consul client 通过该端口通信; 用于处理当前datacenter中LAN的gossip通信
#8302 : serf wan 端口,不同数据中心 consul server 通过该端口通信; agent Server使用,处理与其他datacenter的gossip通信;
#8600 : dns 端口,用于已注册的服务发现;
#2.查看容器ip地址
docker inspect --format='{{.NetworkSettings.IPAddress}}' consul1
# 输出172.17.0.3

#3.启动第二个consul服务(端口8501):consul2, 并加入consul1(使用join命令)
 docker run --name consul2 -d -p 8501:8500 consul agent -server -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.3 
#4.启动第三个consul服务(端口8502):consul3, 并加入consul1(使用join命令)
 docker run --name consul3 -d -p 8502:8500 consul agent -server -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.3  
#5.查看consul集群信息
 docker exec -it consul1 consul members 
## 可以看到集群里的三个节点
#Node          Address          Status  Type    Build  Protocol  DC   Segment
#618e9f617509  172.17.0.5:8301  alive   server  1.6.2  2         dc1  <all>
#6ba34e2feb66  172.17.0.6:8301  alive   server  1.6.2  2         dc1  <all>
#8cba36da0384  172.17.0.7:8301  alive   server  1.6.2  2         dc1  <all>

#6.通过访问8500/8501/8502端口查看web界面

############################################安装rancher############################################
Pulling from rancher/rancher
docker run -d --restart=unless-stopped \
  -p 80:80 -p 443:443 \
  rancher/rancher:latest

############################################安装skywalking 链路监控############################################
#docker仓库 https://hub.docker.com/r/apache/skywalking-oap-server/tags 
#此处使用es7作为存储,所以需要拉取es7相关的版本
docker pull apache/skywalking-oap-server:7.0.0-es7
#首次启动 ,启动之前需要先启动es7
docker run --name oap --net somenetwork --restart always -d -e SW_STORAGE=elasticsearch7 -e SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200 apache/skywalking-oap-server:7.0.0-es7
docker run --name oap -p 1234:1234 -p 11800:11800 -p 12800:12800 --restart always -d -e SW_STORAGE=elasticsearch7 -e SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200 apache/skywalking-oap-server:7.0.0-es7
docker run --name oap --restart always -d  apache/skywalking-oap-server:7.0.0-es7
### 安装skywalking-ui
docker pull apache/skywalking-ui
#首次启动, 将8080改成9090端口,访问9090端口即可看到UI界面
docker run --name oap-ui --net somenetwork -p 9090:8080 --restart always -d -e SW_OAP_ADDRESS=oap:12800 apache/skywalking-ui
docker run --name oap-ui -d -p 9090:8080 --link oap:oap -e SW_OAP_ADDRESS=oap:12800 --restart always apache/skywalking-ui
kubeadm init \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version=v1.18.3 \
--pod-network-cidr=10.244.0.0/16 \
--v=10
kubeadm join 192.168.159.128:6443 --token z469is.h6w1kd84ifxcy1um \
    --discovery-token-ca-cert-hash sha256:891eff23c79c6430ebe991359e2b6270f4886455aba413cf2c0f5c29bef3b2f4 

docker pull kubernetesui/dashboard:v2.0.1
docker tag kubernetesui/dashboard:v2.0.1 k8s.gcr.io/kubernetes-dashboard-amd64:v2.0.1
docker rmi kubernetesui/dashboard:v2.0.1:v2.0.1

kubectl get secret -n kube-system | grep k8sadmin | cut -d "  " -f1 | xargs -n 1 | xargs kubectl get secret -o 'jsonpath={.data.token}' -n kube-system | base64 --decode

sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["https://*****.mirror.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
kubeadm init \
--kubernetes-version=v1.18.3 \
--pod-network-cidr=10.244.0.0/16 \

cat <<EOF > dashboard-admin.yaml
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
  name: kubernetes-dashboard
  labels:
    k8s-app: kubernetes-dashboard
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
- kind: ServiceAccount
  name: kubernetes-dashboard
  namespace: kube-system
EOF

docker stop $(docker ps -a | grep "k8s" | awk '{print $1}')
docker rm -f $(docker ps -a | grep "k8s" | awk '{print $1}')

docker pull mirrorgcrio/kube-apiserver:v1.18.3
docker pull mirrorgcrio/kube-controller-manager:v1.18.3
docker pull mirrorgcrio/kube-scheduler:v1.18.3
docker pull mirrorgcrio/kube-proxy:v1.18.3
docker pull mirrorgcrio/pause:3.2
docker pull mirrorgcrio/etcd:3.4.3-0
docker pull mirrorgcrio/coredns:1.6.7
  
  
docker tag mirrorgcrio/kube-apiserver:v1.18.3 k8s.gcr.io/kube-apiserver:v1.18.3
docker tag mirrorgcrio/kube-controller-manager:v1.18.3 k8s.gcr.io/kube-controller-manager:v1.18.3
docker tag mirrorgcrio/kube-scheduler:v1.18.3 k8s.gcr.io/kube-scheduler:v1.18.3
docker tag mirrorgcrio/kube-proxy:v1.18.3 k8s.gcr.io/kube-proxy:v1.18.3
docker tag mirrorgcrio/pause:3.2 k8s.gcr.io/pause:3.2
docker tag mirrorgcrio/etcd:3.4.3-0 k8s.gcr.io/etcd:3.4.3-0
docker tag mirrorgcrio/coredns:1.6.7 k8s.gcr.io/coredns:1.6.7
  
  
docker image rm mirrorgcrio/kube-apiserver:v1.18.3
docker image rm mirrorgcrio/kube-controller-manager:v1.18.3
docker image rm mirrorgcrio/kube-scheduler:v1.18.3
docker image rm mirrorgcrio/kube-proxy:v1.18.3
docker image rm mirrorgcrio/pause:3.2
docker image rm mirrorgcrio/etcd:3.4.3-0
docker image rm mirrorgcrio/coredns:1.6.7

[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.159.129:6443 --token p12p2p.5vlp54nsjc24n2aw \
    --discovery-token-ca-cert-hash sha256:344f1a09063663f6c50487b58830005d650085eceeb4179204484bd33a36f3de 
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
sudo vi /etc/hosts
151.101.76.133 raw.githubusercontent.com

root@moodincode-virtual-machine:~/桌面# kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
podsecuritypolicy.policy/psp.flannel.unprivileged created
clusterrole.rbac.authorization.k8s.io/flannel created
clusterrolebinding.rbac.authorization.k8s.io/flannel created
serviceaccount/flannel created
configmap/kube-flannel-cfg created
daemonset.apps/kube-flannel-ds-amd64 created
daemonset.apps/kube-flannel-ds-arm64 created
daemonset.apps/kube-flannel-ds-arm created
daemonset.apps/kube-flannel-ds-ppc64le created
daemonset.apps/kube-flannel-ds-s390x created


wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.1/aio/deploy/recommended.yaml
kubectl apply -f recommended.yaml
root@moodincode-virtual-machine:~/桌面# kubectl apply -f recommended.yaml

namespace/kubernetes-dashboard created
serviceaccount/kubernetes-dashboard created
service/kubernetes-dashboard created
secret/kubernetes-dashboard-certs created
secret/kubernetes-dashboard-csrf created
secret/kubernetes-dashboard-key-holder created
configmap/kubernetes-dashboard-settings created
role.rbac.authorization.k8s.io/kubernetes-dashboard created
clusterrole.rbac.authorization.k8s.io/kubernetes-dashboard created
rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
deployment.apps/kubernetes-dashboard created
service/dashboard-metrics-scraper created
deployment.apps/dashboard-metrics-scraper created


cat <<EOF > dashboard-admin.yaml
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
  name: kubernetes-dashboard
  labels:
    k8s-app: kubernetes-dashboard
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
- kind: ServiceAccount
  name: kubernetes-dashboard
  namespace: kube-system
EOF

kubectl create -f dashboard-admin.yaml

kubectl -n kubernetes-dashboard edit service kubernetes-dashboard
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
  name: admin
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
roleRef:
  kind: ClusterRole
  name: cluster-admin
  apiGroup: rbac.authorization.k8s.io
subjects:
- kind: ServiceAccount
  name: admin
  namespace: kubernetes-dashboard
---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: admin
  namespace: kubernetes-dashboard
  labels:
    kubernetes.io/cluster-service: "true"
    addonmanager.kubernetes.io/mode: Reconcile
    
    docker start $(docker ps -a | awk '{ print $1}' | tail -n +2)
    kubectl get srv --all-namespaces
kubectl get pods --all-namespaces
kubectl get node --all-namespaces
透過 journalctl -f -u kubelet 指令查詢 log,

kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk '{print $1}')


 ###################################################安装mariab##################################################
 docker pull mariadb
 
 docker run -d --name mariadb  -p 3306:3306  -e PUID=1000  -e PGID=100  -e MYSQL_ROOT_PASSWORD=123456 -e MYSQL_DATEBASE=nextcloud   -v /opt/nextcloud/mariadb:/var/lib/mysql  --restart=unless-stopped  mariadb

############################################安装nextcloud##################################################################
#nextcloud依赖数据库,可以安装Mariadb或者mysql等数据库
docker pull nextcloud
docker run -d --name nextcloud -p 807:80 -v /opt/nextcloud/html:/var/www/html -v /opt/nextcloud/data:/var/www/html/data -v /opt/nextcloud/apps:/var/www/html/custom_apps -v /opt/nextcloud/config:/var/www/html/config --restart=unless-stopped nextcloud

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心情加密语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值