TCA及相关组件基础操作指导书
(说明:此指导书适用于TCA1.9.5版本)
时间:2022年6月28日
目录
1.3.1 TCA1.9.5版本,部署集群时3min左右报错,提示内部服务错误
1 集群创建
1.1 创建集群模板
Kubernetes集群模板包含了创建Kubernetes集群所需的配置。在创建Kubernetes集群之前,请创建Kubernetes集群模板。一个集群模板可用于部署多个集群。
导航到Infrastructure->CaaS Infrastructure->Cluster Templates,点击ADD开始添加集群模板:
输入集群名称,选择集群类型:
Management cluster是执行管理和运营中心角色的Kubernetes集群,用于管理多个工作负载群集。
Workload cluster是实际应用所在的集群,用于部署网络功能。
1.1.1 management cluster
设置master节点配置:
其中storage不能小于50GB,Replica代表控制节点虚拟机个数,replica的理想值为3。
网络已默认绑定管理网络,可自定义网络名称:
(可选)添加master的标签:
worker node配置:
其中storage不能小于50GB,Replica代表node pool中的控制节点虚拟机个数。
worker node的网络支持添加多网络,并可自定义添加labels:
查看模板详情,点击ADD TEMPLATE添加:
创建成功:
1.1.2 workload cluster
集群配置:选择Kubernetes Version取决于规划配套的版本
CNI为容器网络接口,包括multus、calico、antrea,其中calico和antrea不可共存,若NF要求使用SRIOV或host-device则必须选择multus,此处以添加multus、antrea为例:
CSI为容器存储接口,包括vSphere CSI、NFS Client,其中仅能在集群中的所有节点都对接了共享存储后才能使用vSphere CSI创建PV,此处添加vsphere-csi并保持默认参数:
Tools保持默认,无需添加:
master node配置:此处保持默认值即可。
worker node配置:根据集群需要,设置node pool名称、CPU、内存、存储及节点个数。
设置网络:输入网络标签,此处的网络标签即为集群创建成功后工作节点的虚拟网口名称;
添加节点标签:
点击ADD添加另一node pool:
点击NEXT:
检查配置,点击ADD TEMPLATE新增模板:
添加成功:
1.2 创建集群
导航到Infrastructure->CaaS Infrastructure->Cluster Instances,点击DEPLOY KUBERNETES CLUSTER
选择对接的底层云:
1.2.1 management cluster
选择管理集群模板:
设置集群名称和密码,选择集群模板中设置的Kubernetes版本对应的OS镜像,并设置集群虚拟IP,此IP要求在MANAGEMENT网络的DHCP范围外:
选择集群部署主机组、资源池、VM文件夹,并设置DNS服务器IP:
添加环境中的airgap server:
设置master node 配置:
(选填)主机集群、资源池、存储池选择集群部署位置;
选择规划的管理网络,此处的网络需要提前在NSX-T上创建;
填写DNS服务器IP。
设置worker node配置,配置对应网络和DNS:
查看集群总览后,点击DEPLOY:
1.2.2 workload cluster
选择工作负载集群模板:
设置集群名称和密码(ssh登录集群所用密码),选择管理集群,选择集群模板中设置的Kubernetes版本对应的OS镜像,并设置集群虚拟IP,此IP要求在MANAGEMENT网络的DHCP范围外:
设置集群部署参数:
选择环境中注册的airgap 和 harbor:
配置master node,选择管理网络和DNS:
配置worker node:
设置各节点的网络和DNS:
确认集群参数,点击DEPLOY开始部署:
1.3 常见创建失败案例及解决方法
1.3.1 TCA1.9.5版本,部署集群时3min左右报错,提示内部服务错误。
解决:该版本部署集群必现问题,点击部署失败集群的 按钮选择Retry重试解决。
2 node pool创建及配置修改
2.1 创建node pool
导航到Infrastructure->CaaS Infrastructure->Cluster Instances,点击集群名称进入集群详情:
点击worker nodes:
点击ADD:
设置node pool名称、节点规格(CPU/内存/存储)、节点个数和labels:
设置管理网络和业务网络,并添加DNS:
点击ADD创建node pool:
节点创建完成后,可以登录vCenter查看各节点的配置信息和资源使用情况,资源的实时使用情况,可在VM的监控->性能->概览中查看。
若需要对虚拟机进行迁移,右键虚机->迁移->选择目的计算资源或存储资源即可。
2.2 增加node pool中的labels
选中需要新增labels的node pool,点击EDIT:
点击labels下的ADD:
添加新label后点击UPDATE:
若label的value需要修改,可以通过新增key值相同的label实现替换。
2.3 修改node pool中的虚机数量
选择需要修改节点数量的集群对应的node pool,点击EDIT:
设置node pool 的Replica值(最小为1),并点击UPDATE:
3 实例化cnf
实例化CNF前,需要确保容器所用镜像和chart包已上传至Harbor。
3.1 创建CSAR
导航到Network Functions->Catalog,点击ONBOARD开始创建:
选择Upload Network Function Package → 输入名称 → 点击“BROWSE”上传本地CSAR包:
点击UPLOAD上传:
3.2 实例化CNF
导航到Network Functions-Catalog,选择要实例化的CSAR包,点击INSTANTIATE:
输入CNF名称:
选择要部署到的cloud:
选择k8s集群,点击OK:
注意:根据casr包的定制化不同,在下一步可以选择要部署到的node pool并查看定制化需求,如下图:
选择成功:
点击NEXT,进入Helm Charts页签:
输入命名空间,并选择对应的chart包:
点击NEXT:
点击NEXT:
点击NEXT,查看总览,点击INSTANTIATE进行实例化。
4 创建网络
登陆NSX-T:
点击网络->分段:
4.1 在NSX上新增分段配置
更改分段配置需要新增分段配置文件,支持对IP发现、mac发现生成配置文件,此章节以新增mac发现配置文件为例。
点击分段配置文件:
点击添加分段配置文件-Mac发现:
设置配置文件名称、MAC更改、MAC学习等设置:
点击保存,添加成功:
4.2 在NSX上新增分段
点击添加分段:
输入分段名称和传输区域(根据底层配置选择传输区域),连接的网关选择无:
输入网关CIDR和对应VLAN ID,与交换机实际配置保持一致:
点击保存:
如需设置分段配置文件,点击是继续设置该分段,如不需要选择否按默认配置文件:
点击“是”后选择分段配置文件-MAC发现,选择新设置的配置文件,点击保存:
5 上传镜像和chart包
登陆环境Harbor:
新建项目或选择已有项目,点击进入:
5.1 上传镜像至Harbor
获取镜像推送命令:
docker tag SOURCE_IMAGE[:TAG] xxx.xxx.xxx/library/REPOSITORY[:TAG]
docker push xxx.xxx.xxx/library/REPOSITORY[:TAG]
登陆Linux虚拟机,已装好docker,并上传镜像包:
将镜像加载到本地仓库,docker load -i <包路径>:
打标签:docker tag SOURCE_IMAGE[:TAG] xxx.xxx.xxx/library/REPOSITORY[:TAG]
推送镜像:docker push xxx.xxx.xxx/library/REPOSITORY[:TAG]
harbor中查看已成功上传镜像:
5.2 上传chart至Harbor
点击项目中的Helm Charts-上传:
点击“选择文件”选择本地的chart文件,并上传:
chart上传成功: