Spark SQL fails on empty ORC table

如题。

sqlContext.setConf("spark.sql.hive.convertMetastoreOrc", "false")

 

参考上 BEST ANSWER 说把参数放在:

In ambari its Custom spark-defaults.

Value : spark.sql.hive.convertMetastoreOrc=false

这样并不可行,要放在

Custom spark-thrift-sparkconf

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
a foreign key constraint fails 是一个数据库错误。它通常发生在删除或更新一个父行时,有一个外键约束导致失败。这个错误表示在删除或更新父表的行时,存在一个外键依赖关系,子表中的数据依赖于父表的数据。如果尝试删除或更新父表的行,而子表中还存在相应的数据,就会触发外键约束失败的错误。 解决这个问题的方法,可以暂时关闭外键约束检查,删除父表的行,然后再开启外键约束检查。具体步骤如下: 1. 使用 SQL 语句 `SET foreign_key_checks = 0;` 关闭外键约束检查。 2. 使用 SQL 语句 `DELETE FROM 表名 WHERE 条件;` 删除父表的行。 3. 使用 SQL 语句 `SET foreign_key_checks = 1;` 再次开启外键约束检查。 这样做可以绕过外键约束检查,执行删除操作。但是请注意,在删除父表的行之前,确保子表中不再有依赖于父表的数据。否则,删除父表的行可能会导致数据不一致性或错误。在操作数据库时,请谨慎处理外键约束关系,以确保数据的完整性和一致性。 <span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Cannot delete or update a parent row: a foreign key constraint fails](https://blog.csdn.net/weixin_42272869/article/details/122560342)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值