【Flink】记录一次Flink消费kafka写入Elastic在kerberos认证的情况下不消费问题

854 篇文章 860 订阅 ¥99.90 ¥299.90
本文记录了一次在Flink从Kafka消费数据并写入到启用Kerberos认证的Elasticsearch过程中遇到的问题。尽管部分数据流能正常消费,但部分流在修改消费组后依然无法读取数据。经过排查,发现日志中未显示界面修改的消费组,并且任务在某些节点上运行时,与Elasticsearch认证相关的流出现异常。最终发现原因是Elasticsearch认证文件未正确分发,导致认证卡死但未报错。解决办法是重新分发认证文件,使得任务恢复正常。
摘要由CSDN通过智能技术生成

文章目录


在这里插入图片描述

哎 要放假了,我真的是心在曹营 身在汉,很想回家了,肿么办无心学习,指向跑路。

5Lmd5biI5YWE5ZSv5LiA5Y6f5Yib

哎 要放假了,我真的是心在曹营 身在汉,很想回家了,肿么办无心学习,指向跑路。

5Lmd5biI5YWE5ZSv5LiA5Y6f5Yib

哎 要放假了,我真的是心在曹营 身在汉,很想回家了,肿么办无心学习,指向跑路。

1.概述

最近在做Flink读取kafka写入到kerberos认证的Elastic,但是却发现kafka无法消费的情况。先说说我们的环境

flink节点
    node1 
     flink目录
     keytab目录
       jaas.conf
       es.keytab

然后我们分发文件到其他的机器
hdfs dananode节点
    node2 
     keyta
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

九师兄

你的鼓励是我做大写作的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值