全国职业技能大赛私有云容器云边缘计算系列学习笔记

Openstack私有云服务运维

这是一个系列笔记,欢迎各位大佬给与指导和交流
第一场:模块一 OpenSatck私有云平台搭建
第一场:模块二 OpenStack私有云服务运维
第一场:模块三 私有云Python运维开发
第二场:模块一 Kubernetes容器云平台搭建
第二场:模块二 Kubernetes容器云服务运维
第二场:模块三 Kubernetes容器云运维开发
第三场:模块一 边缘计算系统运维
第三场:模块二 边缘计算云应用开发


前言

本节内容:OpenSatck私有云平台搭建

用到的资源和节点规划:

redis-3.2.12.tar.gz
ceph-14.2.22.tar.gz
cirros-0.3.4-x86_64-disk.img

节点名称ip网卡备注
controller192.168.25.100eth0与我们交互用
192.168.200.10eth1(内)填脚本上
compute192.168.25.200eth0与我们交互用
192.168.200.20eth1(内)填脚本上

过程中有些报错也写了上来,在后续学习中会逐渐替换为完整无报错步骤


题目部分

【题目 1】1.2.1 Heat 编排-创建用户[1 分]

使用自己搭建的OpenStack 私有云平台,使用heat 编写摸板(heat_template_version: 2016-04-08)创建名为”chinaskills”的 domain,在此 domain 下创建名为 beijing_group的租户,在此租户下创建名为 cloud 的用户,将此文件命名及保存在/root/user_create.yml,完成后提交 controller 点的用户名、密码和 IP 地址到答题框。
(竞赛系统会执行yaml 文件,请确保执行的环境)

答:
[root@controller ~]# iaas-install-heat.sh
[root@controller ~]# source /etc/keystone/admin-openrc.sh
[root@controller ~]# heat resource-type-list    #<<<<<<<查看当前版本的资源类型(资源空间)

[root@controller ~]# source /etc/keystone/admin-openrc.sh
[root@controller ~]# heat resource-type-template OS::Keystone::Domain > /root/user_create.yml
WARNING (shell) "heat resource-type-template" is deprecated, please use "openstack orchestration resource type show --template-type hot" instead
[root@controller ~]# heat resource-type-template OS::Keystone::Project >> /root/user_create.yml
WARNING (shell) "heat resource-type-template" is deprecated, please use "openstack orchestration resource type show --template-type hot" instead
[root@controller ~]# heat resource-type-template OS::Keystone::User >> /root/user_create.yml
WARNING (shell) "heat resource-type-template" is deprecated, please use "openstack orchestration resource type show --template-type hot" instead
拉下来很多参数,把不需要的删除
步骤:
首先:vim user_create.yml
然后:set nu 显示行数
接着::行数1,行数2d   例如:“ :1,29d ” 将删除1-29行(含1行和29行)
[root@controller ~]# vim user_create.yml
[root@controller ~]# cat user_create.yml
最终保留:
Description: Initial template of KeystoneDomain
HeatTemplateFormatVersion: '2012-12-12'  
Resources:
  chinaskills:
    Properties:
      enabled: true
      name: chinaskills
    Type: OS::Keystone::Domain

  KeystoneProject:
    Properties:
      domain: {get_resource: chinaskills}
      name: beijing_group
    Type: OS::Keystone::Project

  KeystoneUser:
    Properties:
      default_project: {get_resource: KeystoneProject}
      domain: {get_resource: chinaskills}
      name: cloud
    Type: OS::Keystone::User
[root@controller ~]# heat stack-create -f user_create.yml user_create
【这三个模块单独运行可以,但是放同一个文件里运行失败(提示前面的资源没有被创建)】
WARNING (shell) "heat stack-create" is deprecated, please use "openstack stack create" instead
ERROR: Property error: : Resources.KeystoneUser.Properties.domain: : Value must be a string; got {u'get_resource': u'chinaskills'}

修改了一下,现在可以一次性运行了
[root@controller ~]# cat user_create.yml                                  
heat_template_version: 2013-05-23

description: >
  Initial template of KeystoneDomain, Project, and User.

resources:
  chinaskills:
    type: OS::Keystone::Domain
    properties:
      name: chinaskills
      enabled: true

  KeystoneProject:
    type: OS::Keystone::Project
    properties:
      name: beijing_group
      domain: { get_resource: chinaskills }

  KeystoneUser:
    type: OS::Keystone::User
    properties:
      name: cloud
      domain: { get_resource: chinaskills }
      default_project: { get_resource: KeystoneProject }
      enabled: true
[root@controller ~]# openstack stack create -t user_create.yml user_create
+---------------------+--------------------------------------------------------+
| Field               | Value                                                  |
+---------------------+--------------------------------------------------------+
| id                  | 83ee40bd-365a-47c2-ab47-3c9cf9a8dd57                   |
| stack_name          | user_create                                            |
| description         | Initial template of KeystoneDomain, Project, and User. |
|                     |                                                        |
| creation_time       | 2024-02-04T11:02:12Z                                   |
| updated_time        | None                                                   |
| stack_status        | CREATE_IN_PROGRESS                                     |
| stack_status_reason | Stack CREATE started                                   |
+---------------------+--------------------------------------------------------+
验证
[root@controller ~]# openstack domain list
+----------------------------------+-------------+---------+--------------------------+
| ID                               | Name        | Enabled | Description              |
+----------------------------------+-------------+---------+--------------------------+
| 125ef27b774f4a53b1f7f45332082203 | demo        | True    | Default Domain           |
| 271ac162374848e19ba8c1645b7a0539 | chinaskills | True    |                          |
| b4d28070b49a4f98b049f206ef8e1ffe | heat        | True    | Stack projects and users |
| cc10a2a46a624794bd809686082d36e5 | 210Demo     | True    |                          |
| default                          | Default     | True    | The default domain       |
+----------------------------------+-------------+---------+--------------------------+
[root@controller ~]# openstack project list --domain chinaskills
+----------------------------------+---------------+
| ID                               | Name          |
+----------------------------------+---------------+
| c8bf708df9ab41a78e45c1974ef313e4 | beijing_group |
+----------------------------------+---------------+
[root@controller ~]# openstack user list --domain chinaskills
+----------------------------------+-------+
| ID                               | Name  |
+----------------------------------+-------+
| 9b046e66b3314688853e595d5491064f | cloud |
+----------------------------------+-------+

注意
chinaskills域的ID为271ac162374848e19ba8c1645b7a0539,这是在创建该域时由OpenStack自动生成的。这个ID与Heat模板操作或其他命令行操作中看到的堆栈ID(例如,堆栈创建命令返回的83ee40bd-365a-47c2-ab47-3c9cf9a8dd57)是不同的。
堆栈ID是用来标识整个Heat堆栈实例的,而不是单个资源如域或项目

【题目 2】1.2.2 KVM 优化[1 分]

1,在 OpenStack 平台上修改相关配置文件,启用-device virtio-net-pci in kvm。

在自行搭建的 OpenStack 私有云平台或赛项提供的 all-in-one 平台上,修改相关配置文件,启用-device virtio-net-pci in kvm,配置完成后提交控制节点的用户名、密码和 IP 地址到答题框。

答:
[root@controller ~]# cat /etc/nova/nova.conf |grep virtio
# Use virtio for bridge interfaces with KVM/QEMU (boolean value)
use_virtio_for_bridges=true
# 重启服务,(要等好久)
[root@controller ~]# systemctl restart openstack-nova-* 

在这里插入图片描述

【题目 3】1.2.3 NFS 对接 Glance 后端存储[1 分]

1,使用 OpenStack 私有云平台,创建一台云主机,安装 NFS 服务,然后对接 Glance 后端存储。

使用赛项提供的 OpenStack 私有云平台,创建一台云主机(镜像使用CentOS7.9, flavor 使用带临时磁盘 50G 的),配置该主机为 nfs 的 server 端,将该云主机中的 50G磁盘通过/mnt/test 目录进行共享(目录不存在可自行创建)。然后配置 controller 节点为 nfs 的 client 端,要求将/mnt/test 目录作为 glance 后端存储的挂载目录。
配置完成后提交 controller 控制节点的用户名、密码和 IP 地址到答题框。

答:
1,首先新建一台主机(nfs-server)
2,以目录存储的形式进行挂载(NSF)
2.1,查看glance服务的存储路径
[root@controller ~]# ls /var/lib/glance/images
b67e17d6-37ce-42fd-b626-2c5dbe50e291
3,搭建NFS服务器
3.1,删除nfs-server联网的yum源
[root@nsf-server ~]# rm -f /etc/yum.repos.d/*
3.2,创建yum源(和compute节点完全一样,可不配置iaas)
3.3,安装nsf服务器
[root@nsf-server ~]# yum install -y nfs*

4,查看openstack节点的glance用户id与组id(转到Controller上操作)
[root@controller ~]# id glance
uid=161(glance) gid=161(glance) groups=161(glance)
4.1,在nfs服务器上创建对应ID和组ID的用户(转到NFS上操作)
[root@nsf-server ~]# groupadd -g 161 glance
[root@nsf-server ~]# useradd glance -g 161 -u 161
[root@nsf-server ~]# id glance
uid=161(glance) gid=161(glance) groups=161(glance)
4.2,配置共享目录(转到NFS上操作)
[root@nsf-server ~]# mkdir /mnt/test
[root@nsf-server ~]# chown glance:glance /mnt/test/  #修改权限
4.3,配置NFS服务器配置文件(本来是空白文件)
[root@nsf-server ~]# vi /etc/exports
[root@nsf-server ~]# cat /etc/exports
/mnt/test *(rw,gid=161,uid=161)
4.4,重启NFS服务
[root@nsf-server ~]# systemctl restart nfs-server
***************************************改错专用分割线****************************************************
发现报错:Feb 26 05:54:42 nsf-server exportfs[9349]: exportfs: /etc/exports:1: unknown keyword "gid=161"
修改,应该是设置匿名访问
[root@nsf-server ~]# vi /etc/exports
[root@nsf-server ~]# cat /etc/exports
/mnt/test *(rw,anongid=161,anonuid=161)
[root@nsf-server ~]# systemctl restart nfs-server
成功启动无报错
***************************************改错专用分割线****************************************************
4.5,检查共享是否正常:
[root@nsf-server ~]# showmount -e
Export list for nsf-server:
/mnt/test *
4.6,设置自启动
[root@nsf-server ~]# systemctl enable nfs-server
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
5,openstack节点挂载测试(controller节点测试)
5.1,使用mount命令进行挂载
[root@controller ~]# ll /var/lib/glance/images/ -d
drwxr-x--- 2 glance glance 50 Feb 25 17:59 /var/lib/glance/images/
[root@controller ~]# mount 192.168.25.210:/mnt/test /var/lib/glance/images/
[root@controller ~]# ll /var/lib/glance/images/ -d
drwxr-xr-x 2 glance glance 6 Feb 26  2023 /var/lib/glance/images/
5.2,创建一个镜像进行测试
[root@controller ~]# openstack image create test-glance --file cirros-0.3.4-x86_64-disk.img 
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field            | Value                                                                                                                                                                                      |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| checksum         | ee1eca47dc88f4879d8a229cc70a07c6                                                                                                                                                           |
| container_format | bare                                                                                                                                                                                       |
| created_at       | 2023-02-25T15:06:14Z                                                                                                                                                                       |
| disk_format      | raw                                                                                                                                                                                        |
| file             | /v2/images/bfc81daa-4178-45ed-9f0f-7dd0667f9cd3/file                                                                                                                                       |
| id               | bfc81daa-4178-45ed-9f0f-7dd0667f9cd3                                                                                                                                                       |
| min_disk         | 0                                                                                                                                                                                          |
| min_ram          | 0                                                                                                                                                                                          |
| name             | test-glance                                                                                                                                                                                |
| owner            | 941ffdc9a1134ce393a80677625e3431                                                                                                                                                           |
| properties       | os_hash_algo='sha512', os_hash_value='1b03ca1bc3fafe448b90583c12f367949f8b0e665685979d95b004e48574b953316799e23240f4f739d1b5eb4c4ca24d38fdc6f4f9d8247a2bc64db25d6bbdb2', os_hidden='False' |
| protected        | False                                                                                                                                                                                      |
| schema           | /v2/schemas/image                                                                                                                                                                          |
| size             | 13287936                                                                                                                                                                                   |
| status           | active                                                                                                                                                                                     |
| tags             |                                                                                                                                                                                            |
| updated_at       | 2023-02-25T15:06:16Z                                                                                                                                                                       |
| virtual_size     | None                                                                                                                                                                                       |
| visibility       | shared                                                                                                                                                                                     |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
5.3,检查目录下是否有和ID对应的文件
[root@controller ~]# ls /var/lib/glance/images
bfc81daa-4178-45ed-9f0f-7dd0667f9cd3  #<<<<和刚刚创建的镜像id一致

【题目 4】1.2.4 Redis 主从[1 分]

【题目 4】1.2.4 Redis 主从[1 分]

使用赛项提供的OpenStack 私有云平台,创建两台云主机,配置为redis 的主从架构。使用赛项提供的 OpenStack 私有云平台,申请两台CentOS7.9 系统的云主机,使用提
供的 http 源,在两个节点安装 redis 服务并启动,配置 redis 的访问需要密码,密码设置为 123456。然后将这两个 redis 节点配置为 redis 的主从架构。
配置完成后提交 redis 主节点的用户名、密码和 IP 地址到答题框。

答:
1,上传软件包与环境配置
1.1,上传软件包
[root@node-2 ~]# ls
anaconda-ks.cfg  redis-3.2.12.tar.gz
1.2,配置、拷贝主机映射
[root@node-2 ~]# vi /etc/hosts
[root@node-2 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
192.168.25.151 node
192.168.25.152 node-2
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
[root@node-2 ~]# scp /etc/hosts node:/etc/hosts
2,安装redis软件包
2.1,安装软件包
[root@node-2 ~]# tar xf redis-3.2.12.tar.gz
[root@node-2 ~]# ls
anaconda-ks.cfg  redis  redis-3.2.12  redis-3.2.12.tar.gz
[root@node-2 ~]# cd redis
[root@node-2 redis]# ls
jemalloc-3.6.0-1.el7.x86_64.rpm    redis-3.2.12-2.el7.x86_64.rpm
logrotate-3.8.6-19.el7.x86_64.rpm 
[root@node-2 redis]# install -y *.rpm   #<<双节点都搞
3,配置并启动redis并设置主从
主节点配置:
3.1,修改配置
#<绑定所有ip地址以便从节点链接

[root@node ~]# vi /etc/redis.conf  
[root@node ~]# cat /etc/redis.conf | grep bind
........
bind 0.0.0.0
#关闭保护模式
[root@node ~]# cat /etc/redis.conf |grep protected-mode
protected-mode no
#开启appendonly
[root@node ~]# cat /etc/redis.conf |grep appendonl
appendonly yes
#密码:123456
[root@node ~]# cat /etc/redis.conf |grep requirepass
# If the master is password protected (using the "requirepass" configuration
requirepass 123456
[root@node ~]# systemctl start redis
[root@node ~]# systemctl enable redis
检查主节点的配置是否正确(下面这种情况说明正确)
[root@node ~]# redis-cli -a 123456
127.0.0.1:6379>

从节点配置:
和主节点一样的再来一套
node-2需要新增:
配置该节点为node的从节点以及链接node(主节点)需要的密码
[root@node-2 redis]# cat /etc/redis.conf |grep slaveof
slaveof node 6379
[root@node-2 redis]# cat /etc/redis.conf |grep masterauth
masterauth 123456
[root@node-2 redis]# systemctl start redis
[root@node-2 redis]# systemctl enable redis

主节点检查一下:
[root@node ~]# redis-cli -a 123456
127.0.0.1:6379> [root@node ~]# redis-cli -a 123456
(error) ERR unknown command '[root@node'
127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:1     #《《《《《发现这里为1,表示有一个链接,下面一行也正好是我们的node-2的ip
slave0:ip=192.168.25.152,port=6379,state=online,offset=127,lag=0
master_repl_offset:127
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:126
127.0.0.1:6379>

【题目 5】1.2.5 Linux 系统调优-脏数据回写[1 分]

1,修改系统配置文件,要求将回写磁盘的时间临时调整为 60 秒。

Linux 系统内存中会存在脏数据,一般系统默认脏数据 30 秒后会回写磁盘,修改系统配置文件,要求将回写磁盘的时间临时调整为 60 秒。
完成后提交 controller 节点的用户名、密码和IP 地址到答题框。

答:
[root@controller ~]# vim /etc/sysctl.conf
[root@controller ~]# sysctl -p
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1
vm.dirty_expire_centisecs = 6000

【题目 6】1.2.6 Glance 调优[1 分]

1,在 OpenStack 平台中,修改相关配置文件,将子进程数量相应的配置修改成 2。

在 OpenStack 平台中,glance-api 处理请求的子进程数量默认是0,只有一个主进程
请修改相关配置文件,将子进程数量相应的配置修改成 2,这样的话有一个主进程加 2个子进程来并发处理请求。
完成后提交控制节点的用户名、密码和 IP 地址到答题框。

答:
[root@controller ~]# vim /etc/glance/glance-api.conf
[root@controller ~]# cat /etc/glance/glance-api.conf |grep workers = 2
# process workers to service requests. By default, the number of CPUs
# available is set as the value for ``workers`` limited to 8. For
# example if the processor count is 6, 6 workers will be used, if the
# processor count is 24 only 8 workers will be used. The limit will only
# apply to the default value, if 24 workers is configured, 24 is used.
# NOTE: Setting the number of workers to zero, triggers the creation
workers = 2

【题目 7】1.2.7 Ceph 部署[1 分]

1,使用提供的 ceph.tar.gz 软件包,安装 ceph 服务并完成初始化操作。

使用提供的 ceph-14.2.22.tar.gz 软件包,在 OpenStack 平台上创建三台 CentOS7.9系统的云主机,使用这三个节点安装 ceph 服务并完成初始化操作
第一个节点为 mon/osd节点,第二、三个节点为 osd 节点,部署完 ceph 后,创建 vms、images、volumes 三个 pool。
完成后提交第一个节点的用户名、密码和 IP 地址到答题框。

太长,单独放一篇

点这里跳转


glance、cinder、nova对接ceph存储本地环境准备


【题目 8】1.2.8 Glance 对接 Ceph 存储[1 分]

1,修改 OpenStack 平台中 Glance 服务的配置文件,将 Glance 后端存储改为 Ceph 存储。

在自己搭建的 OpenStack 平台中修改 glance 服务的相关配置文件,将glance 后端存储改为 ceph 存储。也就是所以的镜像会上传至 ceph 的 images pool 中。
通过命令使用 cirros-0.3.4-x86_64-disk.img 镜像文件上传至云平台中,镜像命名为 cirros。完成后提交 controller 节点的用户名、密码和 IP 地址到答题框。

答:
vim /etc/glance/glance-api.conf
找这个模块,记下来直接添加(或者去取消注释)
[glance_store]
#stores = rbd,file,http
#demo_store = file
#filesystem_store_datadir = /var/lib/glance/images/
stores = rbd,file,http
default_store = rbd
rbd_store_chunk_size = 8
rbd_store_pool = images
rbd_store_user = glance
rbd_store_ceph_conf = /etc/ceph/ceph.conf
show_image_direct_url = True
# 重启服务
[root@controller ~]# systemctl restart openstack-glance*
# 上传镜像到云平台 命名为cirros,启动硬盘为 10G,最小启动内存为 1G
[root@controller ~]# openstack image create --min-disk 10 --min-ram 1024 --file cirros-0.3.4-x86_64-disk.img cirros1
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field            | Value                                                                                                                                                                                      |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| checksum         | ee1eca47dc88f4879d8a229cc70a07c6                                                                                                                                                           |
| container_format | bare                                                                                                                                                                                       |
| created_at       | 2024-02-16T18:00:30Z                                                                                                                                                                       |
| disk_format      | raw                                                                                                                                                                                        |
| file             | /v2/images/0e3c7a17-9ad4-4872-99ac-aa770dd16ce9/file                                                                                                                                       |
| id               | 0e3c7a17-9ad4-4872-99ac-aa770dd16ce9                                                                                                                                                       |
| min_disk         | 10                                                                                                                                                                                         |
| min_ram          | 1024                                                                                                                                                                                       |
| name             | cirros1                                                                                                                                                                                    |
| owner            | 571807b88254431f910226e822599f08                                                                                                                                                           |
| properties       | os_hash_algo='sha512', os_hash_value='1b03ca1bc3fafe448b90583c12f367949f8b0e665685979d95b004e48574b953316799e23240f4f739d1b5eb4c4ca24d38fdc6f4f9d8247a2bc64db25d6bbdb2', os_hidden='False' |
| protected        | False                                                                                                                                                                                      |
| schema           | /v2/schemas/image                                                                                                                                                                          |
| size             | 13287936                                                                                                                                                                                   |
| status           | active                                                                                                                                                                                     |
| tags             |                                                                                                                                                                                            |
| updated_at       | 2024-02-16T18:00:31Z                                                                                                                                                                       |
| virtual_size     | None                                                                                                                                                                                       |
| visibility       | shared                                                                                                                                                                                     |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
ceph集群主节点
[root@ceph-node1 ceph]# rbd ls images
0e3c7a17-9ad4-4872-99ac-aa770dd16ce9		## 发现这个 id 与我们刚刚创建的一致

【题目 9】1.2.9 Cinder 对接 Ceph 存储[1 分]

1,修改 OpenStack 平台中 cinder 服务的配置文件,将 cinder 后端存储改为 Ceph 存储。

修改 OpenStack 平台中 cinder 服务的相关配置文件,将 cinder 后端存储改为 ceph 存储。
使创建的 cinder 块存储卷在 ceph 的 volumes pool 中。配置完成后,在 OpenStack 平台中使用创建卷 cinder-volume1,大小为 1G。
完成后提交 controller 节点的用户名、密码和 IP 地址到答题框。

控制节点:
[root@controller ~]# vi /etc/cinder/cinder.conf
# Default volume type to use (string value)
default_volume_type = ceph		# 原本是注释掉的,取消注释并修改
[root@controller ~]# systemctl restart openstack-cinder*
计算节点:
**********************小技巧****************************
[root@compute ~]# cat /etc/cinder/cinder.conf |grep ^#rbd
#rbd_cluster_name = ceph
#rbd_pool = rbd
#rbd_user = <None>
#rbd_ceph_conf =
#rbd_keyring_conf =
#rbd_flatten_volume_from_snapshot = false
#rbd_secret_uuid = <None>
#rbd_max_clone_depth = 5
#rbd_store_chunk_size = 4
#rbd_exclusive_cinder_pool = false
**********************小技巧****************************
[DEFAULT]
transport_url = rabbit://openstack:000000@controller
auth_strategy = keystone
my_ip = 192.168.25.200
enabled_backends = ceph,lvm
glance_api_servers = http://controller:9292

[ceph]	# 这一块是手动添加的,也可以在文件中找
volume_driver = cinder.volume.drivers.rbd.RBDDriver
volume_backend_name = ceph
rbd_pool = volumes
rbd_user = cinder
rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_flatten_volume_from_snapshot = false
rbd_secret_uuid = 674e1fe8-23f9-4ada-a2f9-2aac2f01e69c
rbd_max_clone_depth = 5
rbd_store_chunk_size = 4
rados_connect_timeout = -1
glance_api_version = 2
#重启服务
[root@compute ~]# systemctl restart openstack-cinder*

控制节点创建一个卷验证

[root@controller ~]# openstack volume type create  ceph
+-------------+--------------------------------------+
| Field       | Value                                |
+-------------+--------------------------------------+
| description | None                                 |
| id          | b1221486-9f06-4f98-9b1e-a6715cfaeb07 |
| is_public   | True                                 |
| name        | ceph                                 |
+-------------+--------------------------------------+
[root@controller ~]# cinder --os-username admin --os-tenant-name admin type-key ceph set volume_backend_name=ceph
WARNING:cinderclient.shell:API version 3.59 requested, 
WARNING:cinderclient.shell:downgrading to 3.50 based on server support.
[root@controller ~]# openstack volume create ceph-test --type ceph --size 1
+---------------------+--------------------------------------+
| Field               | Value                                |
+---------------------+--------------------------------------+
| attachments         | []                                   |
| availability_zone   | nova                                 |
| bootable            | false                                |
| consistencygroup_id | None                                 |
| created_at          | 2024-02-16T18:19:34.000000           |
| description         | None                                 |
| encrypted           | False                                |
| id                  | 5a7f3b00-89fa-43d7-8942-c56414575d76 |
| migration_status    | None                                 |
| multiattach         | False                                |
| name                | ceph-test                            |
| properties          |                                      |
| replication_status  | None                                 |
| size                | 1                                    |
| snapshot_id         | None                                 |
| source_volid        | None                                 |
| status              | creating                             |
| type                | ceph                                 |
| updated_at          | None                                 |
| user_id             | 94d98f2d02f04485a9e0700fe0ca47b7     |
+---------------------+--------------------------------------+
[root@controller ~]# openstack volume list
+--------------------------------------+-------------+-----------+------+-------------+
| ID                                   | Name        | Status    | Size | Attached to |
+--------------------------------------+-------------+-----------+------+-------------+
| 5a7f3b00-89fa-43d7-8942-c56414575d76 | ceph-test   | available |    1 |             |
| 54bd93f2-ad7d-44ab-ba4a-ab68d72ec466 | centos-test | available |    5 |             |
+--------------------------------------+-------------+-----------+------+-------------+

去ceph-node1上查看有没有刚刚创建的这个镜像
[root@ceph-node1 ceph]# rbd ls volumes
volume-5a7f3b00-89fa-43d7-8942-c56414575d76

【题目 10】1.2.10 Nova 对接 Ceph 存储[1 分]

1,修改 OpenStack 平台中 Nova 服务的配置文件,将 Nova 后端存储改为 Ceph 存储。

修改 OpenStack 平台中 nova 服务的相关配置文件,将 nova 后端存储改为 ceph 存储。
使 nova 所创建的虚拟机都存储在 ceph 的 vms pool 中。
配置完成后在 OpenStack 平台中使用命令创建云主机 server1。
完成后提交 controller 节点的用户名、密码和 IP 地址到答题框。

计算节点直接添加:
[root@compute ~]# vi /etc/nova/nova.conf 
[libvirt]
images_type = rbd
images_rbd_pool = vms
images_rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_user = cinder
rbd_secret_uuid = 674e1fe8-23f9-4ada-a2f9-2aac2f01e69c
重启服务
[root@compute ~]# systemctl restart openstack-cinder*

控制节点:(创建云主机)
[root@controller ~]# openstack image create --disk-format qcow2  --file /opt/iaas/images/cirros-0.3.4-x86_64-disk.img  cirros_nova
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field            | Value                                                                                                                                                                                      |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| checksum         | ee1eca47dc88f4879d8a229cc70a07c6                                                                                                                                                           |
| container_format | bare                                                                                                                                                                                       |
| created_at       | 2024-02-16T18:34:24Z                                                                                                                                                                       |
| disk_format      | qcow2                                                                                                                                                                                      |
| file             | /v2/images/fdb8abbc-b8f4-4cfa-a926-8b2348abdc22/file                                                                                                                                       |
| id               | fdb8abbc-b8f4-4cfa-a926-8b2348abdc22                                                                                                                                                       |
| min_disk         | 0                                                                                                                                                                                          |
| min_ram          | 0                                                                                                                                                                                          |
| name             | cirros_nova                                                                                                                                                                                |
| owner            | 571807b88254431f910226e822599f08                                                                                                                                                           |
| properties       | os_hash_algo='sha512', os_hash_value='1b03ca1bc3fafe448b90583c12f367949f8b0e665685979d95b004e48574b953316799e23240f4f739d1b5eb4c4ca24d38fdc6f4f9d8247a2bc64db25d6bbdb2', os_hidden='False' |
| protected        | False                                                                                                                                                                                      |
| schema           | /v2/schemas/image                                                                                                                                                                          |
| size             | 13287936                                                                                                                                                                                   |
| status           | active                                                                                                                                                                                     |
| tags             |                                                                                                                                                                                            |
| updated_at       | 2024-02-16T18:34:25Z                                                                                                                                                                       |
| virtual_size     | None                                                                                                                                                                                       |
| visibility       | shared                                                                                                                                                                                     |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
[root@controller ~]# openstack server create --image cirros_nova --flavor m1.tiny server1
+-------------------------------------+----------------------------------------------------+
| Field                               | Value                                              |
+-------------------------------------+----------------------------------------------------+
| OS-DCF:diskConfig                   | MANUAL                                             |
| OS-EXT-AZ:availability_zone         |                                                    |
| OS-EXT-SRV-ATTR:host                | None                                               |
| OS-EXT-SRV-ATTR:hypervisor_hostname | None                                               |
| OS-EXT-SRV-ATTR:instance_name       |                                                    |
| OS-EXT-STS:power_state              | NOSTATE                                            |
| OS-EXT-STS:task_state               | scheduling                                         |
| OS-EXT-STS:vm_state                 | building                                           |
| OS-SRV-USG:launched_at              | None                                               |
| OS-SRV-USG:terminated_at            | None                                               |
| accessIPv4                          |                                                    |
| accessIPv6                          |                                                    |
| addresses                           |                                                    |
| adminPass                           | Q96xbAhL5kLA                                       |
| config_drive                        |                                                    |
| created                             | 2024-02-16T18:35:19Z                               |
| flavor                              | m1.tiny (1)                                        |
| hostId                              |                                                    |
| id                                  | ffa9407b-db2d-4141-bbde-d5411d05af9f               |
| image                               | cirros_nova (fdb8abbc-b8f4-4cfa-a926-8b2348abdc22) |
| key_name                            | None                                               |
| name                                | server1                                            |
| progress                            | 0                                                  |
| project_id                          | 571807b88254431f910226e822599f08                   |
| properties                          |                                                    |
| security_groups                     | name='default'                                     |
| status                              | BUILD                                              |
| updated                             | 2024-02-16T18:35:19Z                               |
| user_id                             | 94d98f2d02f04485a9e0700fe0ca47b7                   |
| volumes_attached                    |                                                    |
+-------------------------------------+----------------------------------------------------+
ceph集群主节点验证
[root@ceph-node1 ceph]# rbd ls vms
ffa9407b-db2d-4141-bbde-d5411d05af9f_disk

【题目 11】1.2.11 私有云平台优化:系统网络优化[1 分]

1,使用自行创建的 OpenStack 云计算平台,配置控制节点的网络缓存,使得每个 UDP连接(发送、接受)保证能有最小 358 KiB 最大 460 KiB 的 buffer,重启后仍然生效。

配置完成后提交 controller 控制节点的用户名、密码和 IP 地址到答题框。

答:
[root@controller ~]# vim /etc/sysctl.conf
[root@controller ~]# cat /etc/sysctl.conf |grep net.core
net.core.rmem_default=358400
net.core.rmem_max=460800
net.core.wmem_defult=358400
net.core.wmem_max=460800

【题目 12】1.2.12 私有云平台排错:Neutron 网络组件排错[2 分]

使用赛项提供的 chinaskill-error01 镜像创建一台云主机(云主机的登录用户名为 root,密码为 Abc@1234),该云主机中存在错误的网络服务,错误现象为 dashboard 不能查看网络相关的页面,请修复 neutron 服务。
修复完成后提交该云主机的用户名、密码和 IP 地址到答题框。

无环境

【题目 13】1.2.13 私有云平台排错:Cinder 卷组件报错[2 分]

使用赛项提供的 chinaskill-error01 镜像创建一台云主机(云主机的登录用户名为 root,密码为 Abc@1234),该云主机中存在错误的卷服务,错误现象为无法正常使用 cinder 命令,请修复卷服务,然后使用命令创建名为 chinaskill-cinder 的卷,大小为 2G。
修复完成后提交该云主机的用户名、密码和 IP 地址到答题框。

无环境

最后

插入结尾

欢迎大家来一起交流和交换资源

  • 15
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值