关于sparking Streaming version 2.3.2+kafka接收实时流数据找不到hive创建的数据库问题 。
当程序报错遇到bug 的时候 而你又求助于论坛的时候 不能着急!!!查看log或者把别人的文章认真看完 说不定你遭遇的问题别人也曾经入过坑并解决过
这是spark Streaming 2.3.2版本的官方demo
这个里 spark streamingContext的坑是
这里会创建一个SparkContext
这个StreamingContext()是spark Streaming的入口 当你想要把接收kafka后的数据进行hive存储到HDFS就需要在官方demo上加上enableHiveSupport()
也就是
spark 要整合hive 一般要这样写:
val warehouseLocation = new File("spark-warehouse").getAbsolutePath
val spark = SparkSession.builder().appName("youappName").
c