今天发现spark程序出现如下异常:
org.apache.hadoop.hbase.RegionTooBusyException: Above memstore limit
解决办法如下:
1. hbaseconf 的 "hbase.master" 增加了 hbase 另外两个 region server 的ip
2. 修改了 hbase 表的设置: alter 'table_name', {MEMSTORE_FLUSHSIZE => '268435456'}
暂时看好像没问题,可能是目前日志流量下降的缘故,效果会继续观察
另外,单个指标的数据没必要精确1分钟,改成1天即可