Spark structured 记录一次kudu扩容导致无法写入数据的问题
最新推荐文章于 2022-01-03 10:25:53 发布
在使用SparkStructured Streaming从Kafka向Kudu写入数据的过程中,遇到任务卡住且报找不到节点的错误。经排查,问题源于Kudu Master返回的地址为域名,而实际分区主机未在本地hosts文件中配置。由于近期Kudu进行了扩容,新节点的hosts未及时更新,导致写入失败。解决方法是在所有节点的hosts文件中添加新扩容节点的域名映射,从而恢复正常写入。
摘要由CSDN通过智能技术生成