StarRock数据导入过大导致BE挂掉--坑3

今天在做数据迁移的时候遇到一个奇葩的问题,通过CloudCanal把Mysql里的数据同步到StarRocks里,数据量1200W,出现一个问题至今没有解决的是数据丢失,但是数据量在少于1000W的时候是没有丢失的。这不是我要讲的重点,我要说的重点是StarRocks在接收大量数据的时候,由于内存不足会出现BE结点挂掉,咱办呢?

 

这么办:首先我们想到的就是重启,没有用,试了三次,本来想删除重建的,想到数据导入不容易,就扩容一下,然后重启完美解决。给我最大的教训就是一定要预估数据量,数据量太大会直接把BE结点压挂了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值