最近又玩了一个新CDH集群,安装过程中手贱重新装了一遍kudu,然后发现在impala中创建的两张kudu表无法进行任何操作,无法CRUD,不能drop,仔细分析impala跑出来的日志,一直报RPC远程调用的错误,说无法连接kudu的master。
在impala中,基于新的kudu建立的表又可以正常读写,不会报那两个错误,这到底是怎么回事呢?
搞了大半天,看遍了kudu和impala的日志,发现我重装kudu的时候把kudu的master换了节点,但是因为impala没有重装,但是也没有同步新装的kudu的节点信息,一直在去连旧的节点信息,我觉得impala和kudu在这一点上可以改进一下,同步两个组件之间的节点信息。
那么怎么处理这个问题呢?
最简单的方法是重装impala,重新配置kudu连接,但是需要删除很多的tserver和tmaster的文件很麻烦。
应该有更优雅的方法:我们知道:impala与hive共享元数据,那么是否可以在hive中删除这两张表呢?
于是进入hive shell,发现还是无法删除这两张表,报的错误与impala中差不多。
再进入hive的元数据库mysql中,一张张表地看,终于发现在hive库中,有一张叫做TABLE_PARAMS的表
表里是这样的:
根据表名找到对应的TBL_ID:select * from TABLE_PARAMS where PARAM_KEY='kudu.table_name' AND PARAM_VALUE='出问题的表名';
然后找到kudu.master.addresses这个字段,发现里面正是kudu的master节点列表。
手动写update语句,把对应TBL_ID为514,PARAM_KEY为kudu.master_addresses的PARAM_VALUE修改为正确的kudu的master地址。
再去impala-shell中drop,即可正常删除那两张出问题的表。