TIUP安装及相关命令

tidb官网文档地址:https://docs.pingcap.com/zh/tidb/stable
 

tiup安装

tiup为tidb生态下众多的组件管理器,安装tidb前需先安装tiup:
1.下载并安装tiup

curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh

2.申明环境变量

source .bash_profile

此时,tiup即安装完成。

3.安装tiup cluster组件

tiup install cluster

tiup命令

tiup常用管理命令如下:

#查看tiup帮助
tiup help
#查看tiup组件集,tidb是组件集中的一个
tiup list
#查看cluster组件的所有版本
tiup list cluster
#安装tidb组件,也可以用于安装tiup list列出的其他组件(tiup install tidb用于单机部署,一般不用)
tiup install cluster
#更新tidb集群版本
tiup update cluster
#清空tidb集群所有组件及其所有数据库数据(慎用)
tiup clean cluster

tiup cluster命令

tiup cluster是tiup子命令,cluster是tiup下的集群管理组件(通过tiup list查看所有组件),tiup cluster常用命令如下:

#部署集群,tidb1为集群名称,./topo.yaml为集群配置文件(可通过tiup cluster template生成),root为linux用户,集群部署完成启动后即可在集群上创建数据库
tiup cluster deploy tidb1 ./topo.yaml --user root -p
#集群缩容,通过tiup cluster display tidb1查询节点ID
tiup cluster scale-in --node 192.168.7.79:20160
#集群扩容
tiup cluster scale-out tidb1 ./topology.yaml --user root -p
#数据集群拓扑模板文件(用户根据该文件适量修改部署集群)
tiup cluster template --full
#集群升级到指定版本,通过tiup list tidb查看所有版本号
tiup cluster upgrade tidb1 v6.3.0
#清除缩容已下线的节点
tiup cluster prune
#修改集群名称
tiup cluster rename oldname newname
#销毁集群(慎用,除了清除集群数据,集群一并被清除)
tiup cluster destroy tidb1 --force

#查看已部署的集群列表
tiup cluster list
#查看集群的运行状态,tidb1为集群名称,通过tiup cluster list可以查看所有集群名称
tiup cluster display tidb1
#启动集群
tiup cluster start tidb1
#启动集群的某个节点,node_id通过tiup cluster display tidb1获取
tiup cluster start tidb1 --node node_id
#停止集群
tiup cluster stop tidb1
#重启集群
tiup cluster restart tidb1
#查看历史上对所有集群执行了什么命令
tiup cluster audit
#重新尝试执行某个命令,audit_id通过tiup cluster audit获取(会跳过成功的步骤)
tiup cluster replay audit_id

#检查集群的机器硬件和软件环境是否满足正常运行条件(包括系统时间、时区、时间同步服务、内存参数、fan防火墙、端口占用、CPU、内存、磁盘等)
tiup cluster check tidb1 --cluster
#尝试自动修复上面命令中的失败检查项(能自动修复的包括防火墙、内核参数等)
tiup cluster check tidb1 --cluster --apply

#修改编辑集群的配置
tiup cluster edit-config tidb1
#重新加载集群配置参数
tiup cluster reload tidb1 --force

#清理集群日志和数据(慎用,清除集群上的所有数据库,集群还在,不包括audit-log)
tiup cluster clean tidb1 --all
#清理集群日志
tiup cluster clean tidb1 --log
#清理audit日志
tiup cluster clean tidb1 --audit-log
#清理集群数据(慎用)
tiup cluster clean tidb1 --data

#开启集群服务器启动时自启动
tiup cluster enable tidb1
#关闭集群服务器启动时自启动
tiup cluster disable tidb

#备份集群管理的meta文件
tiup cluster meta backup tidb1 --file ./1.txt
#恢复集群管理meta文件
tiup cluster meta restore tidb1 ./1.txt

常用操作

集群部署

1.若未安装过tiup组件,先按"tiup安装"章节安装tiup和tiup cluster组件。

2.如果已经部署过集群,想要销毁,可以执行:

#销毁集群
tiup cluster destroy tidb1
#销毁完后,查询列表中该集群确实不存在了
tiup cluster list

3.部署集群前,先根据模板生成集群部署拓扑文件,按自己环境适应调整ip、port等参数信息:

tiup cluster template > topo.yaml

  最终得到topo.yaml文件如下(2tidb、3pd、3kv):

# # Global variables are applied to all deployments and used as the default value of
# # the deployments if a specific deployment value is missing.
global:
 user: "tidb1"
 ssh_port: 22
 deploy_dir: "/tidb-deploy"
 data_dir: "/tidb-data"

# # Monitored variables are applied to all the machines.
monitored:
 node_exporter_port: 9100
 blackbox_exporter_port: 9115

server_configs:
 tidb:
   log.slow-threshold: 300
 tikv:
   readpool.storage.use-unified-pool: false
   readpool.coprocessor.use-unified-pool: true
 pd:
   replication.enable-placement-rules: true
   replication.location-labels: ["host"]
 tiflash:
   logger.level: "info"

pd_servers:
 - host: 192.168.7.79
   name: "pd_1"
   client_port: 2380
   peer_port: 2381
 - host: 192.168.7.79
   name: "pd_2"
   client_port: 2382
   peer_port: 2383
 - host: 192.168.7.79
   name: "pd_3"
   client_port: 2384
   peer_port: 2385

tidb_servers:
 - host: 192.168.7.79
   port: 4000
   status_port: 10098
 - host: 192.168.7.79
   port: 4004
   status_port: 10099

tikv_servers:
 - host: 192.168.7.79
   port: 20160
   status_port: 20180
   config:
     server.labels: { host: "logic-host-1" }

 - host: 192.168.7.79
   port: 20161
   status_port: 20181
   config:
     server.labels: { host: "logic-host-2" }

 - host: 192.168.7.79
   port: 20162
   status_port: 20182
   config:
     server.labels: { host: "logic-host-3" }

tiflash_servers:
 - host: 192.168.7.79
monitoring_servers:
 - host: 192.168.7.79

grafana_servers:
 - host: 192.168.7.79

4.检查环境是否满足要求

#检查按topo.yaml部署是否有环境问题,并尝试自动解决
tiup cluster check ./topo.yaml --user root --password --apply

5.开始部署集群

#查看可供部署的tidb版本
tiup list tidb
#部署tidb集群(选择v6.2.0版本)
tiup cluster deploy tidb1 v6.2.0 ./topo.yaml --user root -p

6.启动集群并检查集群是否部署成功

#检查集群是否已存在
tiup cluster list
#启动集群(带--init参数会输出集群root用户密码,不带该参数root用户密码为空)
tiup cluster start tidb1
#查看集群状态
tiup cluster display tidb1

至此,集群安装成功,可以使用navcate等客户端连接tidb数据库,连接端口为4000和4004。 

集群扩容

1.生成扩容拓扑文件scale-out.yaml

pd_servers:
 - host: 192.168.7.79
   name: "pd_4"
   client_port: 2386
   peer_port: 2387

tidb_servers:
 - host: 192.168.7.79
   port: 4008
   status_port: 10097

tikv_servers:
 - host: 192.168.7.79
   port: 20163
   status_port: 20183
   config:
     server.labels: { host: "logic-host-4" }

2.检查环境是否满足扩展要求,若有问题自动修复:

tiup cluster check tidb1 scale-out.yaml --cluster --apply --user root -p

3.开始集群扩容

#查询集群当前节点数及状态
tiup cluster display tidb1
#开始扩容
tiup cluster scale-out tidb1 scale-out.yaml -p
#检查扩容是否成功
tiup cluster display tidb1

集群缩容

1.开始集群缩容

#查看需缩容节点ID
tiup cluster display tidb1
#把上节扩容的3个节点剔除集群
tiup cluster scale-in tidb1 --node 192.168.7.79:2386,192.168.7.79:4008,192.168.7.79:20163
#查看节点状态(对于kv节点,涉及数据迁移,剔除是异步的)
tiup cluster display tidb1
#清理已剔除的节点(kv节点状态为Tombstone时表述数据迁移完成,可以执行如下命令)
tiup cluster prune tidb1
#查看缩容是否完成
tiup cluster display tidb1

忘记数据库root密码

        登录tidb集群操作系统root用户可以修改tidb数据库root用户密码,方案如下:

1.随便找一个tidb_server节点的部署目录,增加如下内容到conf/tidb.toml配置文件底部:

#增加该配置后,该tidb_server节点只能在部署tidb集群的linux服务器的root用户启动
[security]
skip-grant-table = true

选择了如下节点配置文件,增加以上配置: 

vi /tidb-deploy/tidb-4000/conf/tidb.toml

2.停止以上tidb_server节点

#方案一
tiup cluster stop tidb1 --node 192.168.7.79:4000

#方案二(若节点无法正常停止,可强杀)
ps aux | grep tidb-server
kill -9 <pid>

 3.修改数据库root密码

(1)root用户下执行run_tidb.sh脚本,如下:

sh /tidb-deploy/tidb-4000/scripts/run_tidb.sh

(2)开一个新的shell终端,登录root用户,执行以下命令即可修改数据库root用户密码

mysql -h 192.168.7.79 -P 4000 -u root

(3)停止 run_tidb.sh脚本执行

4.删除conf/tidb.toml中增加的配置,重启tidb_server节点即可

tiup cluster start tidb1 --node 192.168.7.79:4000

修改集群配置

方案一:通过SQL命令修改集群参数配置,以修改参数tidb_mem_quota_query为列:

#查询参数当前值
SHOW VARIABLES LIKE '%tidb_mem_quota_query%';
#修改参数当前会话值(其它会话和新建会话参数不变)
SET tidb_mem_quota_query = 4294967296;
#修改参数全局值,并持久化到配置文件中,集群重启依然生效(已建立的会话参数不会被修改,不是所有参数该操作都会持久化到文件中,具体参考系统参数章节)
SET GLOBAL tidb_mem_quota_query = 4294967296;

方案二:通过修改集群配置文件的方式修改参数

修改集群名称

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值