在实现splunk与kafka数据通路时,需要的配置都配了,在kafka自身的consumer中可以读取到producer发送的数据,但是数据却一直没有进到splunk。
思路:
由于在kafka的consumer中可以读到数据,但是在splunk里读不到,就说明问题很可能出在connect这一环节,所以查看kafka的connect.log(kafka_2.12-2.8.1/logs/):
从上面的报错信息可以看出是序列化错误,想到之前在connect-distributed.properties中配置的序列化是Json的,而我在测试时发送的消息都是字符串,所以就尝试把序列化的配置改为string的,重新启动connect之后,数据就可以进到splunk里了。
key.converter=org.apache.kafka.connect.storage.StringConverter
value.converter=org.apache.kafka.connect.storage.StringConverter