sparkStreaming读取kafka写入hive分区表
使用版本: hadoop-3.1.3,hive-3.1.2。
开始这个spark不是很熟悉,但是项目要用到,这就要临阵磨枪了。开始写入hive的时候一直在报一个错误,的不是很懂,就是说我没有 .enableHiveSupport() 我就很蒙我明明有用到,但是他就是说我没用到。
不多说了上代码。
def test:Unit={
//设置用户名
System.setProperty("HADOOP_USER_NAME", "root")
写配置信息
val conf:SparkConf = new SparkConf().setMaster("local[4]").setAppName("CounusmerController").set("spark.testing.memory","2147480000")
val ssc = new StreamingContext(conf, Seconds(5))
// kafka topic
val topic:String = "test3"
//消费者
val groupId:String = "test3"
//从 Redis 中读取 Kafka 偏移量
val kafkaOffsetMap: Map[TopicPartition, Long] = OffsetManagerUtil.getOffset(topic,groupId)
var kafkaDStream: InputDStream[ConsumerRecord[String, String]] = null
if(kafkaOffsetMap!&

本文介绍了如何使用SparkStreaming从Kafka读取数据并写入Hive分区表,过程中遇到了未启用Hive支持的错误,通过检查和修改代码最终成功实现数据迁移。涉及的工具有Hadoop 3.1.3、Hive 3.1.2、Spark和Scala。
最低0.47元/天 解锁文章
1867

被折叠的 条评论
为什么被折叠?



