Openstack私有云服务运维
这是一个系列笔记,欢迎各位大佬给与指导和交流
第一场:模块一 OpenSatck私有云平台搭建
第一场:模块二 OpenStack私有云服务运维
第一场:模块三 私有云Python运维开发
第二场:模块一 Kubernetes容器云平台搭建
第二场:模块二 Kubernetes容器云服务运维
第二场:模块三 Kubernetes容器云运维开发
第三场:模块一 边缘计算系统运维
第三场:模块二 边缘计算云应用开发
文章目录
- Openstack私有云服务运维
- 前言
- 题目部分
- 【题目 1】1.2.1 Heat 编排-创建用户[1 分]
- 【题目 2】1.2.2 KVM 优化[1 分]
- 【题目 3】1.2.3 NFS 对接 Glance 后端存储[1 分]
- 【题目 4】1.2.4 Redis 主从[1 分]
- 【题目 5】1.2.5 Linux 系统调优-脏数据回写[1 分]
- 【题目 6】1.2.6 Glance 调优[1 分]
- 【题目 7】1.2.7 Ceph 部署[1 分]
- 【题目 8】1.2.8 Glance 对接 Ceph 存储[1 分]
- 【题目 9】1.2.9 Cinder 对接 Ceph 存储[1 分]
- 【题目 10】1.2.10 Nova 对接 Ceph 存储[1 分]
- 【题目 11】1.2.11 私有云平台优化:系统网络优化[1 分]
- 【题目 12】1.2.12 私有云平台排错:Neutron 网络组件排错[2 分]
- 【题目 13】1.2.13 私有云平台排错:Cinder 卷组件报错[2 分]
- 最后
前言
本节内容:OpenSatck私有云平台搭建
用到的资源和节点规划:
redis-3.2.12.tar.gz
ceph-14.2.22.tar.gz
cirros-0.3.4-x86_64-disk.img
节点名称 | ip | 网卡 | 备注 |
---|---|---|---|
controller | 192.168.25.100 | eth0 | 与我们交互用 |
192.168.200.10 | eth1(内) | 填脚本上 | |
compute | 192.168.25.200 | eth0 | 与我们交互用 |
192.168.200.20 | eth1(内) | 填脚本上 |
过程中有些报错也写了上来,在后续学习中会逐渐替换为完整无报错步骤
题目部分
【题目 1】1.2.1 Heat 编排-创建用户[1 分]
使用自己搭建的OpenStack 私有云平台,使用heat 编写摸板(heat_template_version: 2016-04-08)创建名为”chinaskills”的 domain,在此 domain 下创建名为 beijing_group的租户,在此租户下创建名为 cloud 的用户,将此文件命名及保存在/root/user_create.yml,完成后提交 controller 点的用户名、密码和 IP 地址到答题框。
(竞赛系统会执行yaml 文件,请确保执行的环境)
答:
[root@controller ~]# iaas-install-heat.sh
[root@controller ~]# source /etc/keystone/admin-openrc.sh
[root@controller ~]# heat resource-type-list #<<<<<<<查看当前版本的资源类型(资源空间)
[root@controller ~]# source /etc/keystone/admin-openrc.sh
[root@controller ~]# heat resource-type-template OS::Keystone::Domain > /root/user_create.yml
WARNING (shell) "heat resource-type-template" is deprecated, please use "openstack orchestration resource type show --template-type hot" instead
[root@controller ~]# heat resource-type-template OS::Keystone::Project >> /root/user_create.yml
WARNING (shell) "heat resource-type-template" is deprecated, please use "openstack orchestration resource type show --template-type hot" instead
[root@controller ~]# heat resource-type-template OS::Keystone::User >> /root/user_create.yml
WARNING (shell) "heat resource-type-template" is deprecated, please use "openstack orchestration resource type show --template-type hot" instead
拉下来很多参数,把不需要的删除
步骤:
首先:vim user_create.yml
然后:set nu 显示行数
接着::行数1,行数2d 例如:“ :1,29d ” 将删除1-29行(含1行和29行)
[root@controller ~]# vim user_create.yml
[root@controller ~]# cat user_create.yml
最终保留:
Description: Initial template of KeystoneDomain
HeatTemplateFormatVersion: '2012-12-12'
Resources:
chinaskills:
Properties:
enabled: true
name: chinaskills
Type: OS::Keystone::Domain
KeystoneProject:
Properties:
domain: {get_resource: chinaskills}
name: beijing_group
Type: OS::Keystone::Project
KeystoneUser:
Properties:
default_project: {get_resource: KeystoneProject}
domain: {get_resource: chinaskills}
name: cloud
Type: OS::Keystone::User
[root@controller ~]# heat stack-create -f user_create.yml user_create
【这三个模块单独运行可以,但是放同一个文件里运行失败(提示前面的资源没有被创建)】
WARNING (shell) "heat stack-create" is deprecated, please use "openstack stack create" instead
ERROR: Property error: : Resources.KeystoneUser.Properties.domain: : Value must be a string; got {u'get_resource': u'chinaskills'}
修改了一下,现在可以一次性运行了
[root@controller ~]# cat user_create.yml
heat_template_version: 2013-05-23
description: >
Initial template of KeystoneDomain, Project, and User.
resources:
chinaskills:
type: OS::Keystone::Domain
properties:
name: chinaskills
enabled: true
KeystoneProject:
type: OS::Keystone::Project
properties:
name: beijing_group
domain: { get_resource: chinaskills }
KeystoneUser:
type: OS::Keystone::User
properties:
name: cloud
domain: { get_resource: chinaskills }
default_project: { get_resource: KeystoneProject }
enabled: true
[root@controller ~]# openstack stack create -t user_create.yml user_create
+---------------------+--------------------------------------------------------+
| Field | Value |
+---------------------+--------------------------------------------------------+
| id | 83ee40bd-365a-47c2-ab47-3c9cf9a8dd57 |
| stack_name | user_create |
| description | Initial template of KeystoneDomain, Project, and User. |
| | |
| creation_time | 2024-02-04T11:02:12Z |
| updated_time | None |
| stack_status | CREATE_IN_PROGRESS |
| stack_status_reason | Stack CREATE started |
+---------------------+--------------------------------------------------------+
验证
[root@controller ~]# openstack domain list
+----------------------------------+-------------+---------+--------------------------+
| ID | Name | Enabled | Description |
+----------------------------------+-------------+---------+--------------------------+
| 125ef27b774f4a53b1f7f45332082203 | demo | True | Default Domain |
| 271ac162374848e19ba8c1645b7a0539 | chinaskills | True | |
| b4d28070b49a4f98b049f206ef8e1ffe | heat | True | Stack projects and users |
| cc10a2a46a624794bd809686082d36e5 | 210Demo | True | |
| default | Default | True | The default domain |
+----------------------------------+-------------+---------+--------------------------+
[root@controller ~]# openstack project list --domain chinaskills
+----------------------------------+---------------+
| ID | Name |
+----------------------------------+---------------+
| c8bf708df9ab41a78e45c1974ef313e4 | beijing_group |
+----------------------------------+---------------+
[root@controller ~]# openstack user list --domain chinaskills
+----------------------------------+-------+
| ID | Name |
+----------------------------------+-------+
| 9b046e66b3314688853e595d5491064f | cloud |
+----------------------------------+-------+
注意
chinaskills域的ID为271ac162374848e19ba8c1645b7a0539,这是在创建该域时由OpenStack自动生成的。这个ID与Heat模板操作或其他命令行操作中看到的堆栈ID(例如,堆栈创建命令返回的83ee40bd-365a-47c2-ab47-3c9cf9a8dd57)是不同的。
堆栈ID是用来标识整个Heat堆栈实例的,而不是单个资源如域或项目
【题目 2】1.2.2 KVM 优化[1 分]
1,在 OpenStack 平台上修改相关配置文件,启用-device virtio-net-pci in kvm。
在自行搭建的 OpenStack 私有云平台或赛项提供的 all-in-one 平台上,修改相关配置文件,启用-device virtio-net-pci in kvm,配置完成后提交控制节点的用户名、密码和 IP 地址到答题框。
答:
[root@controller ~]# cat /etc/nova/nova.conf |grep virtio
# Use virtio for bridge interfaces with KVM/QEMU (boolean value)
use_virtio_for_bridges=true
# 重启服务,(要等好久)
[root@controller ~]# systemctl restart openstack-nova-*
【题目 3】1.2.3 NFS 对接 Glance 后端存储[1 分]
1,使用 OpenStack 私有云平台,创建一台云主机,安装 NFS 服务,然后对接 Glance 后端存储。
使用赛项提供的 OpenStack 私有云平台,创建一台云主机(镜像使用CentOS7.9, flavor 使用带临时磁盘 50G 的),配置该主机为 nfs 的 server 端,将该云主机中的 50G磁盘通过/mnt/test 目录进行共享(目录不存在可自行创建)。然后配置 controller 节点为 nfs 的 client 端,要求将/mnt/test 目录作为 glance 后端存储的挂载目录。
配置完成后提交 controller 控制节点的用户名、密码和 IP 地址到答题框。
答:
1,首先新建一台主机(nfs-server)
2,以目录存储的形式进行挂载(NSF)
2.1,查看glance服务的存储路径
[root@controller ~]# ls /var/lib/glance/images
b67e17d6-37ce-42fd-b626-2c5dbe50e291
3,搭建NFS服务器
3.1,删除nfs-server联网的yum源
[root@nsf-server ~]# rm -f /etc/yum.repos.d/*
3.2,创建yum源(和compute节点完全一样,可不配置iaas)
3.3,安装nsf服务器
[root@nsf-server ~]# yum install -y nfs*
4,查看openstack节点的glance用户id与组id(转到Controller上操作)
[root@controller ~]# id glance
uid=161(glance) gid=161(glance) groups=161(glance)
4.1,在nfs服务器上创建对应ID和组ID的用户(转到NFS上操作)
[root@nsf-server ~]# groupadd -g 161 glance
[root@nsf-server ~]# useradd glance -g 161 -u 161
[root@nsf-server ~]# id glance
uid=161(glance) gid=161(glance) groups=161(glance)
4.2,配置共享目录(转到NFS上操作)
[root@nsf-server ~]# mkdir /mnt/test
[root@nsf-server ~]# chown glance:glance /mnt/test/ #修改权限
4.3,配置NFS服务器配置文件(本来是空白文件)
[root@nsf-server ~]# vi /etc/exports
[root@nsf-server ~]# cat /etc/exports
/mnt/test *(rw,gid=161,uid=161)
4.4,重启NFS服务
[root@nsf-server ~]# systemctl restart nfs-server
***************************************改错专用分割线****************************************************
发现报错:Feb 26 05:54:42 nsf-server exportfs[9349]: exportfs: /etc/exports:1: unknown keyword "gid=161"
修改,应该是设置匿名访问
[root@nsf-server ~]# vi /etc/exports
[root@nsf-server ~]# cat /etc/exports
/mnt/test *(rw,anongid=161,anonuid=161)
[root@nsf-server ~]# systemctl restart nfs-server
成功启动无报错
***************************************改错专用分割线****************************************************
4.5,检查共享是否正常:
[root@nsf-server ~]# showmount -e
Export list for nsf-server:
/mnt/test *
4.6,设置自启动
[root@nsf-server ~]# systemctl enable nfs-server
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
5,openstack节点挂载测试(controller节点测试)
5.1,使用mount命令进行挂载
[root@controller ~]# ll /var/lib/glance/images/ -d
drwxr-x--- 2 glance glance 50 Feb 25 17:59 /var/lib/glance/images/
[root@controller ~]# mount 192.168.25.210:/mnt/test /var/lib/glance/images/
[root@controller ~]# ll /var/lib/glance/images/ -d
drwxr-xr-x 2 glance glance 6 Feb 26 2023 /var/lib/glance/images/
5.2,创建一个镜像进行测试
[root@controller ~]# openstack image create test-glance --file cirros-0.3.4-x86_64-disk.img
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field | Value |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| checksum | ee1eca47dc88f4879d8a229cc70a07c6 |
| container_format | bare |
| created_at | 2023-02-25T15:06:14Z |
| disk_format | raw |
| file | /v2/images/bfc81daa-4178-45ed-9f0f-7dd0667f9cd3/file |
| id | bfc81daa-4178-45ed-9f0f-7dd0667f9cd3 |
| min_disk | 0 |
| min_ram | 0 |
| name | test-glance |
| owner | 941ffdc9a1134ce393a80677625e3431 |
| properties | os_hash_algo='sha512', os_hash_value='1b03ca1bc3fafe448b90583c12f367949f8b0e665685979d95b004e48574b953316799e23240f4f739d1b5eb4c4ca24d38fdc6f4f9d8247a2bc64db25d6bbdb2', os_hidden='False' |
| protected | False |
| schema | /v2/schemas/image |
| size | 13287936 |
| status | active |
| tags | |
| updated_at | 2023-02-25T15:06:16Z |
| virtual_size | None |
| visibility | shared |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
5.3,检查目录下是否有和ID对应的文件
[root@controller ~]# ls /var/lib/glance/images
bfc81daa-4178-45ed-9f0f-7dd0667f9cd3 #<<<<和刚刚创建的镜像id一致
【题目 4】1.2.4 Redis 主从[1 分]
【题目 4】1.2.4 Redis 主从[1 分]
使用赛项提供的OpenStack 私有云平台,创建两台云主机,配置为redis 的主从架构。使用赛项提供的 OpenStack 私有云平台,申请两台CentOS7.9 系统的云主机,使用提
供的 http 源,在两个节点安装 redis 服务并启动,配置 redis 的访问需要密码,密码设置为 123456。然后将这两个 redis 节点配置为 redis 的主从架构。
配置完成后提交 redis 主节点的用户名、密码和 IP 地址到答题框。
答:
1,上传软件包与环境配置
1.1,上传软件包
[root@node-2 ~]# ls
anaconda-ks.cfg redis-3.2.12.tar.gz
1.2,配置、拷贝主机映射
[root@node-2 ~]# vi /etc/hosts
[root@node-2 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
192.168.25.151 node
192.168.25.152 node-2
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
[root@node-2 ~]# scp /etc/hosts node:/etc/hosts
2,安装redis软件包
2.1,安装软件包
[root@node-2 ~]# tar xf redis-3.2.12.tar.gz
[root@node-2 ~]# ls
anaconda-ks.cfg redis redis-3.2.12 redis-3.2.12.tar.gz
[root@node-2 ~]# cd redis
[root@node-2 redis]# ls
jemalloc-3.6.0-1.el7.x86_64.rpm redis-3.2.12-2.el7.x86_64.rpm
logrotate-3.8.6-19.el7.x86_64.rpm
[root@node-2 redis]# install -y *.rpm #<<双节点都搞
3,配置并启动redis并设置主从
主节点配置:
3.1,修改配置
#<绑定所有ip地址以便从节点链接
[root@node ~]# vi /etc/redis.conf
[root@node ~]# cat /etc/redis.conf | grep bind
........
bind 0.0.0.0
#关闭保护模式
[root@node ~]# cat /etc/redis.conf |grep protected-mode
protected-mode no
#开启appendonly
[root@node ~]# cat /etc/redis.conf |grep appendonl
appendonly yes
#密码:123456
[root@node ~]# cat /etc/redis.conf |grep requirepass
# If the master is password protected (using the "requirepass" configuration
requirepass 123456
[root@node ~]# systemctl start redis
[root@node ~]# systemctl enable redis
检查主节点的配置是否正确(下面这种情况说明正确)
[root@node ~]# redis-cli -a 123456
127.0.0.1:6379>
从节点配置:
和主节点一样的再来一套
node-2需要新增:
配置该节点为node的从节点以及链接node(主节点)需要的密码
[root@node-2 redis]# cat /etc/redis.conf |grep slaveof
slaveof node 6379
[root@node-2 redis]# cat /etc/redis.conf |grep masterauth
masterauth 123456
[root@node-2 redis]# systemctl start redis
[root@node-2 redis]# systemctl enable redis
主节点检查一下:
[root@node ~]# redis-cli -a 123456
127.0.0.1:6379> [root@node ~]# redis-cli -a 123456
(error) ERR unknown command '[root@node'
127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:1 #《《《《《发现这里为1,表示有一个链接,下面一行也正好是我们的node-2的ip
slave0:ip=192.168.25.152,port=6379,state=online,offset=127,lag=0
master_repl_offset:127
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:126
127.0.0.1:6379>
【题目 5】1.2.5 Linux 系统调优-脏数据回写[1 分]
1,修改系统配置文件,要求将回写磁盘的时间临时调整为 60 秒。
Linux 系统内存中会存在脏数据,一般系统默认脏数据 30 秒后会回写磁盘,修改系统配置文件,要求将回写磁盘的时间临时调整为 60 秒。
完成后提交 controller 节点的用户名、密码和IP 地址到答题框。
答:
[root@controller ~]# vim /etc/sysctl.conf
[root@controller ~]# sysctl -p
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1
vm.dirty_expire_centisecs = 6000
【题目 6】1.2.6 Glance 调优[1 分]
1,在 OpenStack 平台中,修改相关配置文件,将子进程数量相应的配置修改成 2。
在 OpenStack 平台中,glance-api 处理请求的子进程数量默认是0,只有一个主进程
请修改相关配置文件,将子进程数量相应的配置修改成 2,这样的话有一个主进程加 2个子进程来并发处理请求。
完成后提交控制节点的用户名、密码和 IP 地址到答题框。
答:
[root@controller ~]# vim /etc/glance/glance-api.conf
[root@controller ~]# cat /etc/glance/glance-api.conf |grep workers = 2
# process workers to service requests. By default, the number of CPUs
# available is set as the value for ``workers`` limited to 8. For
# example if the processor count is 6, 6 workers will be used, if the
# processor count is 24 only 8 workers will be used. The limit will only
# apply to the default value, if 24 workers is configured, 24 is used.
# NOTE: Setting the number of workers to zero, triggers the creation
workers = 2
【题目 7】1.2.7 Ceph 部署[1 分]
1,使用提供的 ceph.tar.gz 软件包,安装 ceph 服务并完成初始化操作。
使用提供的 ceph-14.2.22.tar.gz 软件包,在 OpenStack 平台上创建三台 CentOS7.9系统的云主机,使用这三个节点安装 ceph 服务并完成初始化操作
第一个节点为 mon/osd节点,第二、三个节点为 osd 节点,部署完 ceph 后,创建 vms、images、volumes 三个 pool。
完成后提交第一个节点的用户名、密码和 IP 地址到答题框。
太长,单独放一篇
glance、cinder、nova对接ceph存储本地环境准备
【题目 8】1.2.8 Glance 对接 Ceph 存储[1 分]
1,修改 OpenStack 平台中 Glance 服务的配置文件,将 Glance 后端存储改为 Ceph 存储。
在自己搭建的 OpenStack 平台中修改 glance 服务的相关配置文件,将glance 后端存储改为 ceph 存储。也就是所以的镜像会上传至 ceph 的 images pool 中。
通过命令使用 cirros-0.3.4-x86_64-disk.img 镜像文件上传至云平台中,镜像命名为 cirros。完成后提交 controller 节点的用户名、密码和 IP 地址到答题框。
答:
vim /etc/glance/glance-api.conf
找这个模块,记下来直接添加(或者去取消注释)
[glance_store]
#stores = rbd,file,http
#demo_store = file
#filesystem_store_datadir = /var/lib/glance/images/
stores = rbd,file,http
default_store = rbd
rbd_store_chunk_size = 8
rbd_store_pool = images
rbd_store_user = glance
rbd_store_ceph_conf = /etc/ceph/ceph.conf
show_image_direct_url = True
# 重启服务
[root@controller ~]# systemctl restart openstack-glance*
# 上传镜像到云平台 命名为cirros,启动硬盘为 10G,最小启动内存为 1G
[root@controller ~]# openstack image create --min-disk 10 --min-ram 1024 --file cirros-0.3.4-x86_64-disk.img cirros1
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field | Value |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| checksum | ee1eca47dc88f4879d8a229cc70a07c6 |
| container_format | bare |
| created_at | 2024-02-16T18:00:30Z |
| disk_format | raw |
| file | /v2/images/0e3c7a17-9ad4-4872-99ac-aa770dd16ce9/file |
| id | 0e3c7a17-9ad4-4872-99ac-aa770dd16ce9 |
| min_disk | 10 |
| min_ram | 1024 |
| name | cirros1 |
| owner | 571807b88254431f910226e822599f08 |
| properties | os_hash_algo='sha512', os_hash_value='1b03ca1bc3fafe448b90583c12f367949f8b0e665685979d95b004e48574b953316799e23240f4f739d1b5eb4c4ca24d38fdc6f4f9d8247a2bc64db25d6bbdb2', os_hidden='False' |
| protected | False |
| schema | /v2/schemas/image |
| size | 13287936 |
| status | active |
| tags | |
| updated_at | 2024-02-16T18:00:31Z |
| virtual_size | None |
| visibility | shared |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
ceph集群主节点
[root@ceph-node1 ceph]# rbd ls images
0e3c7a17-9ad4-4872-99ac-aa770dd16ce9 ## 发现这个 id 与我们刚刚创建的一致
【题目 9】1.2.9 Cinder 对接 Ceph 存储[1 分]
1,修改 OpenStack 平台中 cinder 服务的配置文件,将 cinder 后端存储改为 Ceph 存储。
修改 OpenStack 平台中 cinder 服务的相关配置文件,将 cinder 后端存储改为 ceph 存储。
使创建的 cinder 块存储卷在 ceph 的 volumes pool 中。配置完成后,在 OpenStack 平台中使用创建卷 cinder-volume1,大小为 1G。
完成后提交 controller 节点的用户名、密码和 IP 地址到答题框。
控制节点:
[root@controller ~]# vi /etc/cinder/cinder.conf
# Default volume type to use (string value)
default_volume_type = ceph # 原本是注释掉的,取消注释并修改
[root@controller ~]# systemctl restart openstack-cinder*
计算节点:
**********************小技巧****************************
[root@compute ~]# cat /etc/cinder/cinder.conf |grep ^#rbd
#rbd_cluster_name = ceph
#rbd_pool = rbd
#rbd_user = <None>
#rbd_ceph_conf =
#rbd_keyring_conf =
#rbd_flatten_volume_from_snapshot = false
#rbd_secret_uuid = <None>
#rbd_max_clone_depth = 5
#rbd_store_chunk_size = 4
#rbd_exclusive_cinder_pool = false
**********************小技巧****************************
[DEFAULT]
transport_url = rabbit://openstack:000000@controller
auth_strategy = keystone
my_ip = 192.168.25.200
enabled_backends = ceph,lvm
glance_api_servers = http://controller:9292
[ceph] # 这一块是手动添加的,也可以在文件中找
volume_driver = cinder.volume.drivers.rbd.RBDDriver
volume_backend_name = ceph
rbd_pool = volumes
rbd_user = cinder
rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_flatten_volume_from_snapshot = false
rbd_secret_uuid = 674e1fe8-23f9-4ada-a2f9-2aac2f01e69c
rbd_max_clone_depth = 5
rbd_store_chunk_size = 4
rados_connect_timeout = -1
glance_api_version = 2
#重启服务
[root@compute ~]# systemctl restart openstack-cinder*
控制节点创建一个卷验证
[root@controller ~]# openstack volume type create ceph
+-------------+--------------------------------------+
| Field | Value |
+-------------+--------------------------------------+
| description | None |
| id | b1221486-9f06-4f98-9b1e-a6715cfaeb07 |
| is_public | True |
| name | ceph |
+-------------+--------------------------------------+
[root@controller ~]# cinder --os-username admin --os-tenant-name admin type-key ceph set volume_backend_name=ceph
WARNING:cinderclient.shell:API version 3.59 requested,
WARNING:cinderclient.shell:downgrading to 3.50 based on server support.
[root@controller ~]# openstack volume create ceph-test --type ceph --size 1
+---------------------+--------------------------------------+
| Field | Value |
+---------------------+--------------------------------------+
| attachments | [] |
| availability_zone | nova |
| bootable | false |
| consistencygroup_id | None |
| created_at | 2024-02-16T18:19:34.000000 |
| description | None |
| encrypted | False |
| id | 5a7f3b00-89fa-43d7-8942-c56414575d76 |
| migration_status | None |
| multiattach | False |
| name | ceph-test |
| properties | |
| replication_status | None |
| size | 1 |
| snapshot_id | None |
| source_volid | None |
| status | creating |
| type | ceph |
| updated_at | None |
| user_id | 94d98f2d02f04485a9e0700fe0ca47b7 |
+---------------------+--------------------------------------+
[root@controller ~]# openstack volume list
+--------------------------------------+-------------+-----------+------+-------------+
| ID | Name | Status | Size | Attached to |
+--------------------------------------+-------------+-----------+------+-------------+
| 5a7f3b00-89fa-43d7-8942-c56414575d76 | ceph-test | available | 1 | |
| 54bd93f2-ad7d-44ab-ba4a-ab68d72ec466 | centos-test | available | 5 | |
+--------------------------------------+-------------+-----------+------+-------------+
去ceph-node1上查看有没有刚刚创建的这个镜像
[root@ceph-node1 ceph]# rbd ls volumes
volume-5a7f3b00-89fa-43d7-8942-c56414575d76
【题目 10】1.2.10 Nova 对接 Ceph 存储[1 分]
1,修改 OpenStack 平台中 Nova 服务的配置文件,将 Nova 后端存储改为 Ceph 存储。
修改 OpenStack 平台中 nova 服务的相关配置文件,将 nova 后端存储改为 ceph 存储。
使 nova 所创建的虚拟机都存储在 ceph 的 vms pool 中。
配置完成后在 OpenStack 平台中使用命令创建云主机 server1。
完成后提交 controller 节点的用户名、密码和 IP 地址到答题框。
计算节点直接添加:
[root@compute ~]# vi /etc/nova/nova.conf
[libvirt]
images_type = rbd
images_rbd_pool = vms
images_rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_user = cinder
rbd_secret_uuid = 674e1fe8-23f9-4ada-a2f9-2aac2f01e69c
重启服务
[root@compute ~]# systemctl restart openstack-cinder*
控制节点:(创建云主机)
[root@controller ~]# openstack image create --disk-format qcow2 --file /opt/iaas/images/cirros-0.3.4-x86_64-disk.img cirros_nova
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field | Value |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| checksum | ee1eca47dc88f4879d8a229cc70a07c6 |
| container_format | bare |
| created_at | 2024-02-16T18:34:24Z |
| disk_format | qcow2 |
| file | /v2/images/fdb8abbc-b8f4-4cfa-a926-8b2348abdc22/file |
| id | fdb8abbc-b8f4-4cfa-a926-8b2348abdc22 |
| min_disk | 0 |
| min_ram | 0 |
| name | cirros_nova |
| owner | 571807b88254431f910226e822599f08 |
| properties | os_hash_algo='sha512', os_hash_value='1b03ca1bc3fafe448b90583c12f367949f8b0e665685979d95b004e48574b953316799e23240f4f739d1b5eb4c4ca24d38fdc6f4f9d8247a2bc64db25d6bbdb2', os_hidden='False' |
| protected | False |
| schema | /v2/schemas/image |
| size | 13287936 |
| status | active |
| tags | |
| updated_at | 2024-02-16T18:34:25Z |
| virtual_size | None |
| visibility | shared |
+------------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
[root@controller ~]# openstack server create --image cirros_nova --flavor m1.tiny server1
+-------------------------------------+----------------------------------------------------+
| Field | Value |
+-------------------------------------+----------------------------------------------------+
| OS-DCF:diskConfig | MANUAL |
| OS-EXT-AZ:availability_zone | |
| OS-EXT-SRV-ATTR:host | None |
| OS-EXT-SRV-ATTR:hypervisor_hostname | None |
| OS-EXT-SRV-ATTR:instance_name | |
| OS-EXT-STS:power_state | NOSTATE |
| OS-EXT-STS:task_state | scheduling |
| OS-EXT-STS:vm_state | building |
| OS-SRV-USG:launched_at | None |
| OS-SRV-USG:terminated_at | None |
| accessIPv4 | |
| accessIPv6 | |
| addresses | |
| adminPass | Q96xbAhL5kLA |
| config_drive | |
| created | 2024-02-16T18:35:19Z |
| flavor | m1.tiny (1) |
| hostId | |
| id | ffa9407b-db2d-4141-bbde-d5411d05af9f |
| image | cirros_nova (fdb8abbc-b8f4-4cfa-a926-8b2348abdc22) |
| key_name | None |
| name | server1 |
| progress | 0 |
| project_id | 571807b88254431f910226e822599f08 |
| properties | |
| security_groups | name='default' |
| status | BUILD |
| updated | 2024-02-16T18:35:19Z |
| user_id | 94d98f2d02f04485a9e0700fe0ca47b7 |
| volumes_attached | |
+-------------------------------------+----------------------------------------------------+
ceph集群主节点验证
[root@ceph-node1 ceph]# rbd ls vms
ffa9407b-db2d-4141-bbde-d5411d05af9f_disk
【题目 11】1.2.11 私有云平台优化:系统网络优化[1 分]
1,使用自行创建的 OpenStack 云计算平台,配置控制节点的网络缓存,使得每个 UDP连接(发送、接受)保证能有最小 358 KiB 最大 460 KiB 的 buffer,重启后仍然生效。
配置完成后提交 controller 控制节点的用户名、密码和 IP 地址到答题框。
答:
[root@controller ~]# vim /etc/sysctl.conf
[root@controller ~]# cat /etc/sysctl.conf |grep net.core
net.core.rmem_default=358400
net.core.rmem_max=460800
net.core.wmem_defult=358400
net.core.wmem_max=460800
【题目 12】1.2.12 私有云平台排错:Neutron 网络组件排错[2 分]
使用赛项提供的 chinaskill-error01 镜像创建一台云主机(云主机的登录用户名为 root,密码为 Abc@1234),该云主机中存在错误的网络服务,错误现象为 dashboard 不能查看网络相关的页面,请修复 neutron 服务。
修复完成后提交该云主机的用户名、密码和 IP 地址到答题框。
无环境
【题目 13】1.2.13 私有云平台排错:Cinder 卷组件报错[2 分]
使用赛项提供的 chinaskill-error01 镜像创建一台云主机(云主机的登录用户名为 root,密码为 Abc@1234),该云主机中存在错误的卷服务,错误现象为无法正常使用 cinder 命令,请修复卷服务,然后使用命令创建名为 chinaskill-cinder 的卷,大小为 2G。
修复完成后提交该云主机的用户名、密码和 IP 地址到答题框。
无环境
最后
插入结尾
欢迎大家来一起交流和交换资源