rancher-labs实战
文章平均质量分 79
rancher\rke2\longhorn学习\k8s
Z.master
运维人不坑运维
展开
-
云原生系列(一)一rancher高可用部署
rancher是目前市面为数不多的功能齐全且开源的k8s管理平台。rancher官方推荐架构下游集群,是运行你自己的应用和服务的下游 Kubernetes 集群。如果你通过 Docker 安装了 Rancher,运行 Rancher Server 的节点应该与你的下游集群分开。如果你需要使用 Rancher 管理下游 Kubernetes 集群,那么运行 Rancher Server 的 Kubernetes 集群也应该与下游集群分开。rancher安装集群,我们这次依然使用rke2原创 2024-03-20 10:51:55 · 667 阅读 · 0 评论 -
云原生系列(二)—单节点多盘位minio部署
昨天我的rancher被我玩崩了,rancher管理的下游集群也被我误操作删除了,是去的下游集群里面每个机器执行的rke2-uninstall.sh,所以迫切需要一个备份用的存储,而且这个存储还得是兼容s3,这样利用备份进行恢复会方便很多。创建minio运行的账户并赋权 ,如果你喜欢用root一把梭哈,也不是不行。MINIO_ROOT_PASSWORD是web控制台的密码。MINIO_ROOT_USER是web控制台的用户名。web浏览器打开。配置minio的环境变量。使用以下命令查看信息。原创 2024-04-08 16:05:10 · 573 阅读 · 0 评论 -
云原生系列(三)一rancher备份
我的服务器有两块盘,100G是用于系统的,一块盘是500G用于给rancher提供备份的,,我新建了/rancherbackup目录,并且500G的硬盘挂给/rancherbackup目录,这个教程就不写了,这都不会,建议不要玩linux了。上一篇教程里的rancher集群rancher01、rancher02、rancher03安装nfs-common。这一篇幅主要讲rancher的备份,有备无患,针对上一篇的集群做备份。在上一篇教程,我们已经完成了高可用rancher的搭建。安装nfs-server。原创 2024-03-20 18:19:13 · 440 阅读 · 0 评论 -
云原生系列(四)—快速创建k8s生产集群
如果你没有看过k8s官方文档、没有深入学习过k8s,不建议按照此方式创建k8s集群,此方式更多是类似锦上添花,并非雪中送炭。没有深入学习,此方式不利于你后期对生产环境的运维。k8s生产集群是建议etcd、master、worker节点均分离,且每个角色3台及以上机器的。前面的教程我们已经创建了高可用的rancher以及rancher的备份。先注册3台etcd的,再注册3台master,最后3台worker。集群注册完成后,3个master节点执行命令,改下环境变量。生产集群的9台服务器准备完毕。原创 2024-03-20 19:37:58 · 547 阅读 · 0 评论 -
云原生系列(五)—metallb安装及layer-2负载配置
ssh登陆到之前创建的正式k8s集群的任一master节点。参照上一张图,后面全是下一步下一步。配置L2Advertisement。本篇教程基于前面的环境进行操作。配置二层负载均衡地址池。原创 2024-03-22 10:25:07 · 299 阅读 · 0 评论 -
云原生系列(六)—longhorn分布式存储部署
重要写在开头,我的教程更多是记录过程,如果你不看各类开源软件的官方文档,不对linux有所了解,我的文档对你的帮助是很有限的。重要写在开头,我的教程更多是记录过程,如果你不看各类开源软件的官方文档,不对linux有所了解,我的文档对你的帮助是很有限的。重要写在开头,我的教程更多是记录过程,如果你不看各类开源软件的官方文档,不对linux有所了解,我的文档对你的帮助是很有限的。原创 2024-03-22 10:51:16 · 314 阅读 · 0 评论 -
云原生系列(七)—在k8s部署trident对接ontap的nfs存储并创建动态存储类
集群是之前的教程里搭建的生产集群,但是有个问题就是,物理机工作节点采用longhorn存储需要新买硬盘与raid直通卡,无法充分利旧公司已有设备。支持ontapapi的方式对接。存储的基础管理配置开局这些也不写了,这个都不知道不会的,也别看我教程了吧。我的存储是两个控制器,每个控制器各2个多余的10G光口,每个控制器的2个光口配置成一个聚合口。我实际的需求是聚合口要在一开始创建的名为nfs的广播域和名为nfs的ipspace里面。svm0就是用于后面对接给k8s的存储类用的,svm1是存储系统用的。原创 2024-04-05 16:41:37 · 1115 阅读 · 0 评论