第七章 KubeSphere3.3.0 + MySQL8.0.29 单节点部署

5 篇文章 1 订阅
3 篇文章 0 订阅

第七章 KubeSphere3.3.0 + MySQL8.0.29 单节点部署



前言

MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,属于 Oracle 旗下产品。MySQL 是最流行的关系型数据库管理系统之一,在 WEB 应用方面,MySQL是最好的 RDBMS (Relational Database Management System,关系数据库管理系统) 应用软件之一(来源百度百科),官网地址:https://www.mysql.com/。本文内容采用 KubeSphere3.3.0 + MySQL8.0.29 单节点部署方式。


一、创建配置文件

选择一个项目进入:

1、配置基本信息
在这里插入图片描述

2、配置数据设置

精简版:

[client]
default-character-set=utf8mb4
 
[mysql]
default-character-set=utf8mb4
 
[mysqld]
init_connect='SET collation_connection = utf8mb4_unicode_ci'
init_connect='SET NAMES utf8mb4'
character-set-server=utf8mb4
collation-server=utf8mb4_unicode_ci
skip-character-set-client-handshake
skip-name-resolve
lower_case_table_names=1

#开启binlog日志
#当前为单个节点,随机设置一个ID的值
 server-id=1
 log-bin=mysql-bin
 binlog-format=Row
 # 日志存储天数一个月
 binlog_expire_logs_seconds=2626560
 # 解决导入脚本时function报错问题
 log_bin_trust_function_creators=1

增强版:

[client]
default-character-set=utf8mb4
 
[mysql]
default-character-set=utf8mb4
 
[mysqld]
init_connect='SET collation_connection = utf8mb4_unicode_ci'
init_connect='SET NAMES utf8mb4'
character-set-server=utf8mb4
collation-server=utf8mb4_unicode_ci
skip-character-set-client-handshake
skip-name-resolve
# 设置不区分大小写
lower_case_table_names=1

# 创建数据表时,默认使用的存储引擎
default-storage-engine=INNODB
# 附加的内存池,用来存储 InnoDB 表的内容
innodb_additional_mem_pool_size=3M
# 置提交日志的时机,若设置为 1,InnoDB 会在每次提交后将事务日志写到磁盘上
innodb_flush_log_at_trx_commit=1
# 来存储日志数据的缓存区的大小
innodb_log_buffer_size=2M
# 缓存的大小,InnoDB 使用一个缓冲池类保存索引和原始数据
innodb_buffer_pool_size=107M
# 日志文件的大小
innodb_log_file_size=54M
# 在 InnoDB 存储引擎允许的线程最大数
innodb_thread_concurrency=18

# 默认使用“mysql_native_password”插件认证
default_authentication_plugin=mysql_native_password


# 回收空闲连接的时间
wait_timeout = 86400
# 允许同时访问 MySQL 服务器的最大连接数。其中一个连接是保留的,留给管理员专用的
max_connections=100
# 数据库 写入的 数据包 最大值
max_allowed_packet = 512M
# 允许连接失败的次数。这是为了防止有人从该主机试图攻击数据库系统
max_connect_errors=10

# 查询时的缓存大小,缓存中可以存储以前通过 SELECT 语句查询过的信息,再次查询时就可以直接从缓存中拿出信息,可以改善查询效率
query_cache_size=0
# 所有进程打开表的总数
table_cache=256
# 内存中每个临时表允许的最大大小
tmp_table_size=35M
# 缓存的最大线程数
thread_cache_size=8
# MySQL 重建索引时所允许的最大临时文件的大小
myisam_max_sort_file_size=100G
# 重建索引时的缓存大小
myisam_sort_buffer_size=69M
# 关键词的缓存大小
key_buffer_size=55M
# MyISAM 表全表扫描的缓存大小
read_buffer_size=64K
#将排序好的数据存入该缓存中
read_rnd_buffer_size=256K
#用于排序的缓存大小
sort_buffer_size=256K

#开启binlog日志
#当前为单个节点,随机设置一个ID的值
server-id=1
log-bin=mysql-bin
binlog-format=Row
# 日志存储天数
expire_logs_days=7
# 解决导入脚本时function报错问题
log_bin_trust_function_creators=1


在这里插入图片描述


二、创建存储卷

1、创建存储卷PVC基本信息

在这里插入图片描述

2、配置存储设置及创建

在这里插入图片描述

三、创建MySQL有状态服务

1、选择有状态服务
在这里插入图片描述
2、配置基础信息
在这里插入图片描述

3、配置容器组
提示:这里只能选择1个副本,多个副本就变成集群模式

选择镜像: mysql:8.0.29

在这里插入图片描述

配置环境变量:
键:MYSQL_ROOT_PASSWORD
值:123456

在这里插入图片描述

3、配置存储
提示:如果提前没有配置PVC存储卷,这里可以点击添加持久卷声明模板临时创建

在这里插入图片描述

  • 存储卷

挂载路径:/var/lib/mysql

在这里插入图片描述

  • 挂载配置文件

挂载地址:/etc/mysql/conf.d
在这里插入图片描述

4、服务创建完成

在这里插入图片描述


四、开启外网访问端口

1、指定工作负载
在这里插入图片描述

在这里插入图片描述

2、配置端口

端口:3306 、33060

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述


五、总结

至此,关于使用KubeSphere3.3.0管理平台搭建一个MySQL单节点部署到这里就结束了。作者制作不易,别忘了点赞、关注、加收藏哦,我们下期见。。。


六、其他文章传送门

第一章 KubeSphere 3.3.0 + Seata 1.5.2 + Nacos 2.1.0 (nacos集群模式)
第二章 KubeSphere3.3.0 + Nacos 2.1.0 (集群部署)
第三章 KubeSphere3.3.0 + Sentinel 1.8.4 + Nacos 2.1.0 集群部署
第四章 KubeSphere3.3.0 + Redis7.0.4 + Redis-Cluster 集群部署
第五章 KubeSphere3.3.0 + MySQL8.0.25 集群部署
第六章 KubeSphere3.3.0 安装部署 + KubeKey2.2.1(kk)创建集群
第七章 KubeSphere3.3.0 + MySQL8.0 单节点部署
第八章 KubeSphere3.3.0 + Redis7.0.4 单节点部署
第九章 KubeSphere3.3.0 + Nacos2.1.0 单节点部署
第十章 KubeSphere3.3.0 + FastDFS6.0.8 部署
第十一章 KubeSphere3.4.1 + MinIO:2024.3.15 部署

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
安装Hive之前,需要先安装Hadoop。以下是节点Hadoop和Hive的安装步骤: 1. 下载Hadoop并解压缩到一个目录中: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz tar -xzvf hadoop-3.3.0.tar.gz ``` 2. 修改Hadoop配置文件(conf/hadoop-env.sh),添加JAVA_HOME环境变量: ``` export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 ``` 3. 修改Hadoop配置文件(conf/core-site.xml),添加以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 4. 修改Hadoop配置文件(conf/hdfs-site.xml),添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 5. 格式化Hadoop文件系统: ``` bin/hdfs namenode -format ``` 6. 启动Hadoop: ``` sbin/start-all.sh ``` 7. 下载Hive并解压缩到一个目录中: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz tar -xzvf apache-hive-3.1.2-bin.tar.gz ``` 8. 修改Hive配置文件(conf/hive-env.sh),添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop-3.3.0 export HIVE_CONF_DIR=/path/to/apache-hive-3.1.2-bin/conf ``` 9. 修改Hive配置文件(conf/hive-site.xml),添加以下内容: ``` <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:/path/to/apache-hive-3.1.2-bin/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> <property> <name>hive.server2.enable.doAs</name> <value>false</value> <description>Whether to impersonate the connected user to the metastore</description> </property> <property> <name>hive.server2.authentication</name> <value>NONE</value> <description>Client authentication for HiveServer2</description> </property> <property> <name>hive.server2.enable.doAs</name> <value>false</value> <description>Whether to impersonate the connected user to HiveServer2</description> </property> </configuration> ``` 10. 创建Hive的元数据库: ``` bin/schematool -initSchema -dbType derby ``` 11. 启动Hive Shell: ``` bin/hive ``` 现在,您可以在Hive Shell中执行SQL查询了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值