使用sparksql insert overwrite插入hive分区导致所有分区被删

本文介绍了在使用SparkSQL的insertoverwrite功能插入Hive分区表时,要注意2.3版本后出现的spark.sql.sources.partitionOverwriteMode参数。如果不正确设置,可能导致所有分区被覆盖。务必了解如何避免这种数据丢失问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用sparksql insert overwrite插入hive分区导致所有分区被删


简单记录一下,防止踩坑。
hive.exec.dynamic.partition=true
hive.exec.dynamic.partition.mode=nonstrict
开启这两个参数,进行动态插入分区表:
insert overwrite table tablename partition(part_col)
1.这种方式在2.3之前,只会修改查询结果的分区,没什么问题。
2.但是如果在2.3之后,spark会增加一个 spark.sql.sources.partitionOverwriteMode参数,这个参数有两个值,默认 static,可修改为 dynamic。问题就出在这里,如果不更改这个参数,使用默认的static,在动态插入时,不管插入的分区是否存在,都会导致所有的分区被覆盖,数据无法找回。
3.可以在hive中使用show create table查看 spark.sql.create.version来确认表的版本。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UAreNotMe

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值