OpenStack 的部署T版(一)——基础环境配置

本文详细介绍了一个典型的OpenStack环境部署流程,包括资源规划、基础环境配置和系统环境配置等关键步骤。涉及的技术要点涵盖NAT网卡配置、防火墙管理、在线源配置、依赖包安装、时间同步设置以及数据库、消息队列和缓存系统的搭建。
摘要由CSDN通过智能技术生成

一、资源规划

主机名内存硬盘网卡系统
CT8300VM:192.168.100.10
NAT:192.168.172.70
Centos7.6
C18300VM:192.168.100.20
NAT:192.168.172.80
Centos7.6
C28300VM:192.168.100.30
NAT:192.168.172.90
Centos7.6

二、基础环境配置

CT VM:192.168.100.10 NAT:192.168.172.70

C1 VM:192.168.100.20 NAT:192.168.172.80

C2 VM:192.168.100.30 NAT:192.168.172.90

1、修改添加NAT网卡配置

在这里插入图片描述在这里插入图片描述
在这里插入图片描述
CT、C1、C2节点网卡都需要设置

2、防火墙、核心防护、主机名

控制节点ct(192.168.172.70)
计算节点c1(192.168.172.80)
计算节点c2(192.168.172.90)

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

hostnamectl set-hostname ct
su

在这里插入图片描述

3、配置在线源

cd /etc/yum.repos.d/
mkdir repo.bak
mv *.repo repo.bak/
curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo       #配置在线源

在这里插入图片描述

4、基础环境依赖包

都需重复安装,保证每个组件都是最新

yum -y install net-tools bash-completion vim gcc gcc-c++ make pcre  pcre-devel expat-devel cmake  bzip2 lrzsz 

#-----------------------模块解释------------------------
net-tools           ifconfig命令行工具
bash-completion     辅助自动补全工具
vim                 vim工具
gcc gcc-c++         编译环境
make                编译器
pcre pcre-devel     是一个Perl库,包括 perl 兼容的正则表达式库
expat-devel         Expat库,Expat是一个面向流的xml解析器
cmake               CMake是一个跨平台的编译工具,CMkae目前主要使用场景是作为make的上层工具,产生可移植的makefile文件
lrzsz               可使用rz、sz命令上传、下载数据

在这里插入图片描述

OpenStack 的 train 版本仓库源安装包,同时安装 OpenStack 客户端和 openstack-selinux 安装包

yum -y install \
centos-release-openstack-train \
python-openstackclient \
openstack-selinux \
openstack-utils

#----------------模块解释------------------------------
centos-release-openstack-train  train版本包
python-openstackclient          安装openstack客户端
openstack-selinux               安装selinux自动管理,这里selinux是关闭的
openstack-utils                 方便后续直接可以通过命令行方式修改配置文件

在这里插入图片描述

5、VMnet1网卡配置参数

1、查看VMnet1网卡名称

ifconfig  	  

2、修改VMnet1网卡配置

cd /etc/sysconfig/network-scripts/

vim ifcfg-ens36
#修改
BOOTPROTO=static
ONBOOT=yes

#末行添加
IPADDR=192.168.100.10			#根据网段,设置VMnet1网段的IP,自定义
NETMASK=255.255.255.0			#设置掩码

systemctl restart network		#重启网卡
ifconfig						#再次查看,是否修改完成

在这里插入图片描述在这里插入图片描述
C1、C2都需要设置,不要忘记

6、配置映射

所有节点
将VMnet1IP与主机名注入到主机映射文件中,用于区分主机,便于相互访问

echo '192.168.100.10 ct' >> /etc/hosts
echo '192.168.100.20 c1' >> /etc/hosts
echo '192.168.100.30 c2' >> /etc/hosts
cat /etc/hosts

在这里插入图片描述

7、免交互

三台节点做免交互非对称密钥

ssh-keygen -t rsa
ssh-copy-id ct
ssh-copy-id c1
ssh-copy-id c2

在这里插入图片描述
在这里插入图片描述

8、时间同步+周期性计划任务

ct ->同步阿里云时钟服务器
c1、c2 -> 同步ct

vi /etc/resolv.conf
nameserver 114.114.114.114

yum install chrony -y

在这里插入图片描述
在这里插入图片描述

CT VM:192.168.100.10 NAT:192.168.172.70

vim /etc/chrony.conf
server 0.centos.pool.ntp.org iburst   #注释掉
server 1.centos.pool.ntp.org iburst   #注释掉
server 2.centos.pool.ntp.org iburst	  #注释掉
server 3.centos.pool.ntp.org iburst	  #注释掉
server ntp6.aliyun.com iburst         #配置阿里云时钟服务器源  
allow 192.168.100.0/24     #允许192.168.100.0/24网段的主机来同步时钟服务

systemctl enable chronyd
systemctl restart chronyd

#使用 chronyc sources 时间同步
chronyc sources

在这里插入图片描述在这里插入图片描述

C1 VM:192.168.100.20 NAT:192.168.172.80
C2 VM:192.168.100.30 NAT:192.168.172.90

vim /etc/chrony.conf 
server 0.centos.pool.ntp.org iburst	  #注释掉
server 1.centos.pool.ntp.org iburst	  #注释掉
server 2.centos.pool.ntp.org iburst   #注释掉
server 3.centos.pool.ntp.org iburst   #注释掉
server ct iburst			          #配置阿里云时钟服务器源,同步指向控制节点ct

systemctl enable chronyd.service
systemctl restart chronyd.service

chronyc sources

在这里插入图片描述
在这里插入图片描述
C2设置同C1这里就不演示了

计划任务

#配置计划任务,每隔2分钟同步一次
crontab -e
*/2 * * * * /usr/bin/chronyc sources >>/var/log/chronyc.log

#查看设置的周期性任务
crontab -l

在这里插入图片描述

三、系统环境配置

1、安装、配置MariaDB

CT VM:192.168.100.10 NAT:192.168.172.70

yum -y install mariadb mariadb-server python2-PyMySQL libibverbs

#---------模块解释---------------------------------
mariadb:是mysql的一个分支,是一款完全兼容mysql的开源软件
mariadb-server:数据库服务
python2-PyMySQL:用于openstack的控制端连接mysql所需要的模块,如果不安装,则无法连接数据库;此包只安装在控制端
libibverbs:远程直接内存访问

在这里插入图片描述

添加MySQL子配置文件,增加如下内容

vim /etc/my.cnf.d/openstack.cnf
[mysqld]
bind-address = 192.168.100.10
default-storage-engine = innodb
innodb_file_per_table = on
max_connections = 4096
collation-server = utf8_general_ci
character-set-server = utf8

#---------配置解释---------------------------------------------
bind-address = 192.168.100.10			#控制节点局域网地址
default-storage-engine = innodb 		#默认存储引擎 
innodb_file_per_table = on 				#每张表独立表空间文件
max_connections = 4096 				    #最大连接数 
collation-server = utf8_general_ci 		#服务器校对时不区分大小写
character-set-server = utf8             #默认字符集 
#---------------------------------------------------------------

systemctl enable mariadb
systemctl start mariadb

在这里插入图片描述在这里插入图片描述

执行MariaDB 安全配置脚本

mysql_secure_installation
#---------输出内容-------------------------------------------
Enter current password for root (enter for none): 	#输入当前root密码,回车
OK, successfully used password, moving on...
Set root password? [Y/n] Y							#是否需要更改root密码,Y确认
Remove anonymous users? [Y/n] Y						#是否移除其他用户,Y确认移除
 ... Success!
Disallow root login remotely? [Y/n] n				#是否不允许root用户远程登陆,输入n,允许root用户远程登陆
 ... skipping.
Remove test database and access to it? [Y/n] Y 		#是否删除test测试库,Y确认删除
Reload privilege tables now? [Y/n] Y 				#是否刷新规则,Y确认刷新
#------------------------------------------------------------

在这里插入图片描述在这里插入图片描述

2、安装、配置RabbitMQ

CT VM:192.168.100.10 NAT:192.168.172.70
所有创建虚拟机的指令,控制端都会发送到rabbitmq,node节点监听rabbitmq

yum -y install rabbitmq-server

systemctl enable rabbitmq-server.service
systemctl start rabbitmq-server.service

在这里插入图片描述

创建消息队列用户,用于controler和 计算节点连接rabbitmq的认证(关联)

rabbitmqctl add_user openstack RABBIT_PASS
#-----------输出内容-------------
Creating user "openstack"
#----------------------------------

在这里插入图片描述

配置openstack用户的操作权限(正则,配置读写权限)

rabbitmqctl set_permissions openstack ".*" ".*" ".*"
#------------输出内容---------------------------------------
Setting permissions for user "openstack" in vhost "/"

#可查看256725672 两个端口(5672是Rabbitmq默认端口,25672是Rabbit的测试工具CLI的端口)
netstat -natp | grep 5672

在这里插入图片描述

查看rabbitmq插件列表

rabbitmq-plugins list

在这里插入图片描述

开启rabbitmq的web管理界面的插件,端口为15672

rabbitmq-plugins enable rabbitmq_management

在这里插入图片描述

检查端口(25672 5672 15672)

ss -natp | grep 5672

在这里插入图片描述

可访问192.168.172.70:15672
默认账号密码均为guest
在这里插入图片描述

3、安装memcached

  • 作用:安装memcached是用于存储session信息;服务身份验证机制(keystone)使用Memcached来缓存令牌 在登录openstack的dashboard时,会产生一些session信息,这些session信息会存放到memcached中

CT VM:192.168.100.10 NAT:192.168.172.70

yum install -y memcached python-memcached
#python-*模块在OpenStack中起到连接数据库的作用

在这里插入图片描述

修改Memcached配置文件

vim /etc/sysconfig/memcached
PORT="11211"                      #memcached端口11211
USER="memcached"                  #用户memcached
MAXCONN="1024"                    #最大连接数1024
CACHESIZE="64"                    #字符集大小64OPTIONS="-l 127.0.0.1,::1,ct"     #监听地址,127.0.0.1:本地地址,::是ipv6地址,ct是本地VMnet1地址

systemctl enable memcached
systemctl start memcached
netstat -nautp | grep 11211

在这里插入图片描述
在这里插入图片描述

4、安装etcd

etcd是一个分布式可靠的键值存储数据库

yum -y install etcd

在这里插入图片描述

修改etcd配置文件

vim /etc/etcd/etcd.conf 
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.100.10:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.100.10:2379"
ETCD_NAME="ct"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.10:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.10:2379"
ETCD_INITIAL_CLUSTER="ct=http://192.168.100.10:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
ETCD_INITIAL_CLUSTER_STATE="new"
#-------------------配置解释---------------------------------------
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"  #数据目录位置
ETCD_LISTEN_PEER_URLS="http://192.168.100.10:2380" #监听其他etcd member的url(2380端口,集群之间通讯,域名为无效值)
ETCD_LISTEN_CLIENT_URLS="http://192.168.100.10:2379" #对外提供服务的地址(2379端口,集群内部的通讯端口)
ETCD_NAME="ct" #集群中节点标识(名称)
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.10:2380" #该节点成员的URL地址,2380端口:用于集群之间通讯。
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.10:2379"
ETCD_INITIAL_CLUSTER="ct=http://192.168.100.10:2380"	
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"	#集群唯一标识
ETCD_INITIAL_CLUSTER_STATE="new"  #初始集群状态,new为静态,若为existing,则表示此ETCD服务将尝试加入已有的集群若为DNS,则表示此集群将作为被加入的对象
#-----------------------------------------------------------------------

systemctl enable etcd.service
systemctl start etcd.service
netstat -anutp |grep 2379
netstat -anutp |grep 2380

在这里插入图片描述在这里插入图片描述
到此openstack的环境配置就部署完成了。

OpenStack中,RabbitMQ是消息代理的核心组件,负责处理各种消息,包括API请求、队列通信和通知。为了保证高可用性和可扩展性,我们可以将RabbitMQ部署为集群。 以下是在OpenStack部署RabbitMQ集群的步骤: 1. 安装RabbitMQ软件包 在每个节点上安装RabbitMQ软件包。可以使用以下命令进行安装: ``` sudo apt-get install rabbitmq-server ``` 2. 配置RabbitMQ 在每个节点上,编辑RabbitMQ配置文件/etc/rabbitmq/rabbitmq-env.conf,指定以下环境变量: ``` NODE_IP_ADDRESS=<本地IP> NODE_PORT=5672 CLUSTER_WITH=<其他节点IP> ``` 其中,NODE_IP_ADDRESS是本地IP地址,CLUSTER_WITH是其他节点的IP地址。这些变量将用于RabbitMQ节点间通信。 3. 启用RabbitMQ插件 在每个节点上启用RabbitMQ集群插件。可以使用以下命令启用插件: ``` sudo rabbitmq-plugins enable rabbitmq_management rabbitmq_peer_discovery_aws ``` 4. 启动RabbitMQ节点 在每个节点上启动RabbitMQ节点。可以使用以下命令启动节点: ``` sudo rabbitmq-server -detached ``` 5. 将节点加入集群 在任何一个节点上,执行以下命令将节点加入集群: ``` sudo rabbitmqctl stop_app sudo rabbitmqctl join_cluster rabbit@<其他节点名称> sudo rabbitmqctl start_app ``` 其中,<其他节点名称>是集群中的其他节点的名称。 6. 验证集群状态 在任何一个节点上,执行以下命令验证集群状态: ``` sudo rabbitmqctl cluster_status ``` 如果输出包含所有节点的信息,则集群已成功部署。 注意:在部署RabbitMQ集群时,需要确保集群节点之间的网络连接正常,并且防火墙已正确配置
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值