(一)Mac M1(ARM) 使用Vmware Fusion从零搭建k8s集群

电脑:MacBook Pro M1(ARM架构)
虚拟机软件:Vmware Fusion 13
LInux镜像: CentOS7.X-aarch64
⚠️注意:因为本机是ARM架构,下文中多处镜像源后缀有aarch64,x86架构的请自行替换⚠️

学习参考来源B站

一、VMware安装和网络适配器配置

自己搞,略
Mac 如何干净的卸载 VMware Fusion
VMware Fusion下修改vmnet8网络和添加vmnet网络

二、初始环境搭建

安装要求

  • 三台服务器,操作系统为CentOS7.X-aarch64
  • 硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多
  • 集群中所有机器之间网络互通
  • 可以访问外网,需要拉取镜像(或者提前准备好镜像)
# 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld

# 设置节点主机名(三台机器分别执行)
hostnamectl set-hostname k8s-master
hostnamectl set-hostname k8s-node1
hostnamectl set-hostname k8s-node2

# 在master添加hosts
cat >> /etc/hosts << EOF
192.168.100.100 k8s-master
192.168.100.101 k8s-node1
192.168.100.102 k8s-node2
EOF


# 关闭 SELinux,否则 kubelet 挂载目录时可能报错Permission denied
sed -i 's/enforcing/disabled/' /etc/selinux/config  # 永久
setenforce 0  # 临时

# 关闭swap分区,否则kubelet会启动失败,也可以设置kubelet启动参数 --fail-swap-on为false关闭swap检查
# swapoff -a  # 临时
#sed -ri 's/.*swap.*/#&/' /etc/fstab    # 永久
# 关闭完swap后,一定要重启一下虚拟机!!!

# 问题:妈勒个巴子,关闭swap分区后 配置文件成了只读文件,无法写入, ssh也连接不上了 (和 1核2G 有关系吗)
# 解决:不要直接使用sed -ri 's/.*swap.*/#&/' /etc/fstab,重启后vi进/etc/fstab发现内容为空,全没了,直接vi进去注释掉swap行,重启完事
swapoff -a  # 临时关闭swap分区, 重启失效
 # 永久关闭swap分区
vi /etc/fstab  注释掉swap行
注释掉swap行 /dev/mapper/cl-swap     swap                   swap   defaults       0 0
#关闭完swap后,重启一下虚拟机!!!
free -h # 查看swap分区内存占用率,检查swap是否已关闭

# 将桥接的IPv4流量传递到iptables的链
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system  # 生效

# 时间同步
yum install ntpdate -y
ntpdate time.windows.com

k8s node为什么需要关闭selinux与swap

三、搭建k8s集群

  1. 安装Docker
# step 1: 安装必要的一些系统工具
sudo yum install -y yum-utils device-mapper-persistent-data lvm2

# Step 2: 添加软件源信息
sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# Step 3: 更新并安装Docker-CE
sudo yum makecache fast
sudo yum -y install docker-ce

# Step 4: 开启Docker服务
sudo service docker start
systemctl enable docker


# 注意:
# 官方软件源默认启用了最新的软件,您可以通过编辑软件源的方式获取各个版本的软件包。例如官方并没有将测试版本的软件源置为可用,您可以通过以下方式开启。同理可以开启各种测试版本等。
# vim /etc/yum.repos.d/docker-ee.repo
#   将[docker-ce-test]下方的enabled=0修改为enabled=1
#
# 安装指定版本的Docker-CE:
# Step 1: 查找Docker-CE的版本:
# yum list docker-ce.x86_64 --showduplicates | sort -r
#   Loading mirror speeds from cached hostfile
#   Loaded plugins: branch, fastestmirror, langpacks
#   docker-ce.x86_64            17.03.1.ce-1.el7.centos            docker-ce-stable
#   docker-ce.x86_64            17.03.1.ce-1.el7.centos            @docker-ce-stable
#   docker-ce.x86_64            17.03.0.ce-1.el7.centos            docker-ce-stable
#   Available Packages


# Step 5: 配置docker的阿里镜像源
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["此处修改成你自己的加速 url"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
  1. 安装kubelet、kubeadm、kubectl组件
# Step 1: 添加k8s的阿里云YUM源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-aarch64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum clean all #清除缓存
yum makecache #重新生成缓存

# Step 2: 安装 kubeadm、kubelet、kubectl
yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6
# 开启自启动
systemctl enable kubelet

# Step 3: 配置关闭 Docker 的 cgroups,修改 /etc/docker/daemon.json,加入以下内容,不然后面初始化会报异常
"exec-opts": ["native.cgroupdriver=systemd"]
# 重启 docker
systemctl daemon-reload
systemctl restart docker

  1. 初始化Master并加入Node节点
#================在k8s-master上执行==============
# Step 1: 初始化master节点
kubeadm init \
      --apiserver-advertise-address=192.168.100.100 \
      --image-repository registry.aliyuncs.com/google_containers \
      --kubernetes-version v1.23.6 \
      --service-cidr=10.96.0.0/12 \
      --pod-network-cidr=10.244.0.0/16

# Step 2: 安装成功后,复制如下配置并执行
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

# Step 3: 查看是否初始化成功
kubectl get nodes


# ============分别在 k8s-node1 和 k8s-node2 执行================
# 下方命令可以在 k8s master 控制台初始化成功后复制 join 命令
# Step 1: 将node节点加入master
kubeadm join 192.168.100.100:6443 --token j7mpyq.z1py5hwl6ke9os02 \
        --discovery-token-ca-cert-hash sha256:57400b47ee911242d9c11f7273d1211cda0dc77994155217ad4248a5719c29a9 

# Step 2: 查看是否加入成功(master)
[root@k8s-master ~]# kubectl get nodes
NAME         STATUS     ROLES                  AGE   VERSION
k8s-master   NotReady   control-plane,master   76s   v1.23.6
k8s-node1    NotReady   <none>                 47s   v1.23.6
k8s-node2    NotReady   <none>                 45s   v1.23.6


# ======================备注===========================
# 1.如果初始化的token不小心清空了,可以通过如下命令获取或者重新生成token
# 如果token已经过期,重新生成token
kubeadm token create
# 如果token没有过期,可以通过如下命令获取
kubeadm token list
# 获取 --discovery-token-ca-cert-hash 值,得到值后需要在前面拼接上 sha256:
openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | \
openssl dgst -sha256 -hex | sed 's/^.* //'

# 2.如果没有openssl,用下面的命令安装
yum install openssl openssl-devel -y
openssl version

# 3.kubeadm安装过程中发生异常
#如果kubeadm安装过程中发生异常,使用重置命令 kubeadm reset,重新使用kubeadm init进行初始化
kubeadm reset
# 来源:[k8s节点加入集群异常解决](https://blog.csdn.net/lj779323436/article/details/123605588?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522169141150116800186580108%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=169141150116800186580108&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-1-123605588-null-null.142%5Ev92%5Econtrol&utm_term=k8s%20%E8%AF%A5%E8%8A%82%E7%82%B9%E6%9C%AA%E5%8A%A0%E5%85%A5%E9%9B%86%E7%BE%A4&spm=1018.2226.3001.4187)
  1. 部署 CNI 网络插件
#==================为什么要安装CNI 网络插件?==================

# 检查节点状态,发现都是 NotReady没有准备好,什么原因呢
[root@k8s-master ~]# kubectl get nodes
NAME         STATUS     ROLES                  AGE   VERSION
k8s-master   NotReady   control-plane,master   76s   v1.23.6
k8s-node1    NotReady   <none>                 47s   v1.23.6
k8s-node2    NotReady   <none>                 45s   v1.23.6

# 检查组件状态,发现都健康
[root@k8s-master ~]# kubectl get componentstatus   #简写命令kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS    MESSAGE                         ERROR
scheduler            Healthy   ok                              
controller-manager   Healthy   ok                              
etcd-0               Healthy   {"health":"true","reason":""}   

# 指定命名空间查询pods核心组件,发现coredns前两个没有运行
[root@k8s-master ~]# kubectl get pods -n kube-system
NAME                                 READY   STATUS    RESTARTS   AGE
coredns-6d8c4cb4d-jdd8g              0/1     Pending   0          35m
coredns-6d8c4cb4d-mrvvx              0/1     Pending   0          35m
etcd-k8s-master                      1/1     Running   1          35m
kube-apiserver-k8s-master            1/1     Running   1          35m
kube-controller-manager-k8s-master   1/1     Running   1          35m
kube-proxy-lhx86                     1/1     Running   0          35m
kube-proxy-px46l                     1/1     Running   0          35m
kube-proxy-tnn48                     1/1     Running   0          35m
kube-scheduler-k8s-master            1/1     Running   1          35m
# 原因:因为还未安装网络相关的服务,所以coredns服务是不运行的。


# ======================安装网络服务(master)=====================
# Step 1: 下载 calico 配置文件,可能会网络超时
mkdir /opt/k8s
curl https://docs.projectcalico.org/manifests/calico.yaml -O
# 修改 calico.yaml 文件中的 CALICO_IPV4POOL_CIDR 配置,修改为与初始化的 cidr 相同
# 修改 IP_AUTODETECTION_METHOD 下的网卡名称
# !!以上两个修改可以不用改!!因为master初始化时,指定了--pod-network-cidr=10.244.0.0/16,可以不用修改这里的配置,calico.yaml中默认是注释的CALICO_IPV4POOL_CIDR

# Step 2: 删除镜像 <xmind-autolink>docker.io</xmind-autolink>/ 前缀,避免下载过慢导致失败
grep image calico.yaml
sed -i 's#docker.io/##g' calico.yaml

# Step 3: 构建calico
kubectl apply -f calico.yaml

# Step 4: 查询pod状态
[root@k8s-master k8s]# kubectl get pods -n kube-system
NAME                                       READY   STATUS    RESTARTS   AGE
calico-kube-controllers-74dbdc644f-zjgcp   1/1     Running   0          14m
calico-node-69db2                          1/1     Running   0          14m
calico-node-kb77c                          1/1     Running   0          14m
calico-node-m68tm                          1/1     Running   0          14m
coredns-6d8c4cb4d-jdd8g                    1/1     Running   0          132m
coredns-6d8c4cb4d-mrvvx                    1/1     Running   0          132m
etcd-k8s-master                            1/1     Running   1          133m
kube-apiserver-k8s-master                  1/1     Running   1          133m
kube-controller-manager-k8s-master         1/1     Running   1          133m
kube-proxy-lhx86                           1/1     Running   0          132m
kube-proxy-px46l                           1/1     Running   0          132m
kube-proxy-tnn48                           1/1     Running   0          132m
kube-scheduler-k8s-master                  1/1     Running   1          133m
# 容器构建时间比较长,多等一会儿,多查几次,最终全部为: 1/1     Running
# 结果:coredns服务已运行

# Step 5: 检查节点状态
[root@k8s-master k8s]# kubectl get nodes
NAME         STATUS   ROLES                  AGE    VERSION
k8s-master   Ready    control-plane,master   136m   v1.23.6
k8s-node1    Ready    <none>                 136m   v1.23.6
k8s-node2    Ready    <none>                 136m   v1.23.6
# 结果:节点状态都是 Ready准备好了

# 至此,网络服务安装成功
  1. 测试 kubernetes 集群
# 创建一个nginx,用来测试k8s集群是否搭建成功并可用
# 创建部署
kubectl create deployment nginx --image=nginx
# 暴露端口
kubectl expose deployment nginx --port=80 --type=NodePort
# 查看 pod 以及服务信息
kubectl get pod,svc
# 测试ip端口是否能访问nginx
curl 192.168.100.100:30658
http://192.168.100.100:30658
http://192.168.100.101:30658
http://192.168.100.102:30658

四、命令行工具 kubectl

  1. 在任意节点使用 kubectl
# 1. 将 master 节点中 /etc/kubernetes/admin.conf 拷贝到需要运行的服务器的 /etc/kubernetes 目录中
scp /etc/kubernetes/admin.conf root@k8s-node1:/etc/kubernetes

# 2. 在对应的服务器上配置环境变量
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
source ~/.bash_profile
  1. 常用kubectl命令
    kubectl命令官方文档

下一篇:(二)k8s实战-深入Pod详解

五、异常

1、安装calico网卡后,coredns状态为CrashLoopBackOff。

1)异常:
ERROR:applying cgroup configuration for process caused “No such device or address”": unknown

kubectl get pods -n kube-system
NAME                                     READY   STATUS             RESTARTS      AGE
calico-kube-controllers-cd8566cf-9vdmv   1/1     Running            0             19s
calico-node-hvc2f                        1/1     Running            0             19s
coredns-6d8c4cb4d-2x2lw                  0/1     CrashLoopBackOff   1 (11s ago)   2m11s
coredns-6d8c4cb4d-v67k9                  0/1     CrashLoopBackOff   1 (11s ago)   2m11s
etcd-k8s-master                          1/1     Running            2             2m27s
kube-apiserver-k8s-master                1/1     Running            2             2m27s
kube-controller-manager-k8s-master       1/1     Running            3             2m25s
kube-proxy-plqdf                         1/1     Running            0             2m11s
kube-scheduler-k8s-master                1/1     Running            3             2m25s

查看pod详情中的日志

Error: failed to start container "coredns": Error response from daemon: OCI runtime create failed: container_linux.go:330: starting container process caused "process_linux.go:284: applying cgroup configuration for process caused \"No such device or address\"": unknown

2)原因:
1、网上给的常见原因: kubernetes1.14之后的版本推荐使用systemd的Cgroup Driver,但docker默认的Cgroup Driver 是cgroup,使得kubelet部署报错
2、真实原因:我在docker的deam.json中提前指定了Cgroup Driver为systemd,但是因为这台服务器是华为二开的EulerOS, 这篇文章指出【链接】,EulerOS不支持systemd,所以docker 和kubectl的Cgroup Driver必须都设置为cgroup
3)解决办法:
查看docker的Cgroup Driver和kubectl的是否一致: docker info | grep Cgroup
修改docker的Cgroup Driver和kubectl的为cgroup
4)参考文章:
https://blog.csdn.net/shuixianmu53/article/details/125265909
https://www.cnblogs.com/fqszywz/p/15335289.html

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
你可以使用以下步骤使用Docker Compose安装ELK(Elasticsearch, Logstash和Kibana)并使用阿里云镜像: 1. 首先,在你的项目目录下创建一个名为 `docker-compose.yml` 的文件。 2. 打开 `docker-compose.yml` 文件并添加以下内容: ```yaml version: '3.7' services: elasticsearch: image: registry.cn-hangzhou.aliyuncs.com/elasticsearch/elasticsearch:7.13.2 container_name: elasticsearch environment: - discovery.type=single-node ports: - 9200:9200 volumes: - esdata:/usr/share/elasticsearch/data logstash: image: registry.cn-hangzhou.aliyuncs.com/logstash/logstash:7.13.2 container_name: logstash ports: - 5000:5000 volumes: - ./logstash/config:/usr/share/logstash/pipeline depends_on: - elasticsearch kibana: image: registry.cn-hangzhou.aliyuncs.com/kibana/kibana:7.13.2 container_name: kibana ports: - 5601:5601 depends_on: - elasticsearch volumes: esdata: ``` 3. 创建一个名为 `logstash` 的目录,用于存放 Logstash 的配置文件。在 `logstash` 目录中创建一个名为 `config` 的子目录。 4. 在 `config` 目录中创建一个名为 `logstash.conf` 的文件,并将以下内容添加到文件中: ```conf input { tcp { port => 5000 codec => json_lines } } output { elasticsearch { hosts => "elasticsearch:9200" index => "logs-%{+YYYY.MM.dd}" } } ``` 这个配置将监听端口5000上的TCP输入,并将收到的日志数据传输到Elasticsearch。 5. 确保你已经安装了Docker和Docker Compose,并在命令行中导航到包含 `docker-compose.yml` 文件的目录。 6. 运行以下命令启动ELK堆栈: ```bash docker-compose up -d ``` 7. 等待一段时间,直到所有容器启动并完成初始化。 现在,你可以通过访问 `http://localhost:5601` 来访问Kibana界面,`http://localhost:9200` 来访问Elasticsearch。 请注意,上述示例使用了7.13.2版本的ELK镜像。你可以根据需要更改版本号。此外,你还可以根据你的需求自定义配置和参数。 希望这对你有帮助!如果有任何问题,请随时问我。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值