- 博客(2)
- 资源 (4)
- 收藏
- 关注
原创 SparkStreaming消费不到Kafka的数据
我这边遇到的问题是由于手动维护了offset,指定了分组我新增了一个Topic,新创建了一个Consumer。但是保存Redis里面的分组还是原来的test所以消费不到啊!!!!!...
2019-12-26 17:12:26 1460
原创 Missing required configuration "key.serializer" which has no default value.
SparkStreaming写入Kafka报错Missing required configuration "key.serializer" which has no default value.这是因为你在KafkaParams参数时没有指定key.serializer将KafkaParams配置项设置为以下格式就ok了/** * 设置Kafka参数 */ ...
2019-12-25 16:38:01 14485 2
bigdata面试.zip
2020-06-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人