实践干货!实现tiup与prometheus迁移

 背景

由于规划变动,需要将tiup和prometheus移动到其他的机器上,要求平滑迁移,不丢失监控数据。

关于prometheus的数据迁移《迁移prometheus数据 》(https://tidb.net/blog/1ea36c1f?shareId=ba5da793)这篇专栏文章写的比较详细,但是存在一个问题:“promethues 保存了一些数据在内存里面,导致即使导入老的监控”。

经过考虑决定使用一种比较稳妥的方案:先扩容prometheus,待并行运行一段时间后再缩容掉原prometheus,这样新的prometheus就会有一份完整的数据,解决了监控数据直接迁移丢失的风险。

本文分两部分:tiup迁移和prometheus迁移。本文环境为离线部署集群。

tiup迁移

1.将当前tiup的镜像源拷贝到迁移的机器上,并安装tiup

tiup mirror show # 查看当前镜像源

sh tidb-community-server-${version}-linux-amd64/local_install.sh && source /home/tidb/.bash_profile#迁移节点执行

2.将tidb家目录下的.tiup包拷贝到迁移节点对应目录

这样就完成了tiup的迁移,通过查看集群配置验证tiup数据迁移成功

tiup cluster list

tiup cluster show-config ${clustera-name}

3.卸载原tiup

tiup uninstall --all

tiup uninstall --self

图片

删除镜像包

prometheus迁移

1.查看Prometheus 监控数据保留时间

storage_retention #默认 "30d"

tiup cluster show-config ${clustera-name} | grep storage_retention

2.编写到迁移节点的prometheus的扩容文件

vi scale-out-prometheus.toml

3.扩容prometheus

tiup cluster scale-out ${clustera-name} scale-out-prometheus.toml -uroot -p

4.等待时间达到storage_retention的保存日期后,再将原prometheus缩容

(1)使用root用户登录dashboard ---> 点击root ---> Prometheus 数据源 ---> 使用自定义地址(新的prometheus)--->查看监控数据是否完整

图片

(2)admin用户登录grafana ---> Confguration ---> Data Sources ---> 查看数据源prometheus地址是否是当前的,如果不是则将其地址更改为新的prometheus,查看监控数据是否完整

图片

(3)缩容原prometheus

tiup cluster scale-in ${clustera-name} -N ${原prometheus-ip:port}

总结

关于tiup和prometheus的迁移方法比较简单,本文介绍了一种比较稳妥的方案,优点是保证了数据不丢失,缺点是时间周期较长,需要根据需求等待prometheus的数据保留时长后才可以将原prometheus缩容。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值