当在一个session中启动spark后,又开启了一个session,会报上面的错误,因为spark默认的元数据存储在derby,derby是单session的。
org.apache.hadoop.hive.ql.metadata.HiveException原因
最新推荐文章于 2024-05-10 10:48:54 发布
当在一个session中启动spark后,又开启了一个session,会报上面的错误,因为spark默认的元数据存储在derby,derby是单session的。