Spark使用中,通过SparkContext创建一个ssc对象,并指定HDFS/本地检查点checkpoint,前提是HDFS或本地不能存在设置保存数据的检查点目录的,设置检查点代码为:
val ssc = StreamingContext.getOrCreate("hdfs://hadoop0:9000/checkpoint001", creatingFunc)
若运行时报错:
org.apache.spark.streaming.dstream.ShuffledDStream@310aee0b has not been initialized
这就说明hdfs/本地已经有 /checkpoint001
这个文件了,删除或换个名字再重新运行即可。若 creatingFunc
函数中也有checkpoint定义,则也需要一并删除或更名。