SparkStream从kafka读取数据编码问题(Java)

当SparkStreaming使用Java从Kafka读取数据时,若源文件编码非UTF-8,会出现乱码。尽管Kafka官方参数未明确指定编码,但通过查阅源码发现可以设置`serializer.encoding`为`gb18030`等其他编码。通过在Kafka配置中添加该参数,成功解决了乱码问题。以下示例展示了如何在Java中配置SparkStream从Kafka读取gb18030编码的数据。
摘要由CSDN通过智能技术生成

SparkStreamingkafka读取文件流时(Java),默认是utf-8的,如果源文件的编码不是utf-8,那就会出现乱码现象,但是kafka的官网参数里没有关于编码的参数,不过kafka的源码里面是有的。源码如下:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值