hive mysql 删除表_Hive-删除表(drop、truncate的区别)

Hive删除操作主要分为几大类:删除数据(保留表)、删除库表、删除分区。我将以下图为例清空iot_devicelocation中的数据,之后再删除表、库等。

6111570a4d5c9108617781a821b735f6.png

解释:

use xpu123;   #使用的库为xpu123

show tables;  #显示该库中的所有的表名

首先来看一下iot_deivcelocation中的数据。select * from iot_deivcelocation。

243e1c7894d5ce88b0f78b6202496171.png

一、仅删除表中数据,保留表结构

hive> truncate table iot_devicelocation;

truncate操作用于删除指定表中的所有行,相当于delete from table where 1=1.表达的是一个意思。

注意:truncate 不能删除外部表!因为外部表里的数据并不是存放在Hive Meta store中。创建表的时候指定了EXTERNAL,外部表在删除分区后,hdfs中的数据还存在,不会被删除。因此要想删除外部表数据,可以把外部表转成内部表或者删除hdfs文件。

4a38756ad6ed40f24523830f5542d6a3.png

二、删除表

hive> drop table if exists iot_devicelocation;

drop table if exists table_name;

74c72d5af57cf09cec67f37526d55582.png

三、删除库

hive> drop database if exists xpu123;

drop database if exists database_name;但是根据第二步操作结束,我们的数据库xpu123中,还存在iot_deviceenergytype表,因此,如果直接删除,会报以下错误。Hive会提醒你,将要执行删除操作的xpu123的库里面还存在tables。

35a16baef7f642758d6a0134903099a7.png

解决这个错误有两种方法:一、就是很简单的将所有表先删除完,再删除库。

另外一种就是使用下述的方法:使用cascade关键字执行强制删库。drop database if exists xpu123 cascade; 如下所示

8041f09eca035f788f0036457d153f81.png

四、删除hive分区

alter table table_name drop partition (partition_name='分区名')

hive> alter table tablename drop partition(load_date='2019-01-01');

参考:https://blog.csdn.net/a_drjiaoda/java/article/details/94433005

```scala // 将 DataFrame 中的数据写入到 Hudi 表中 mysqlDF.write.format("org.apache.hudi") .options(Map( TABLE_TYPE_OPT_KEY -> "MERGE_ON_READ", // Hudi 表的类型,这里是“MERGE_ON_READ” RECORDKEY_FIELD_OPT_KEY -> "id", // 记录键,这里是“id” PRECOMBINE_FIELD_OPT_KEY -> "timestamp", // 预合并字段,这里是“timestamp” PARTITIONPATH_FIELD_OPT_KEY -> "date", // 分区路径键,这里是“date” KEYGENERATOR_CLASS_OPT_KEY -> "org.apache.hudi.keygen.NonpartitionedKeyGenerator", // 键生成器的类,这里是“org.apache.hudi.keygen.NonpartitionedKeyGenerator” HIVE_SYNC_ENABLED_OPT_KEY -> "true", // 是否启用 Hive 元数据同步,这里是“true” HIVE_DATABASE_OPT_KEY -> "default", // Hive 数据库的名称,这里是“default” HIVE_TABLE_OPT_KEY -> "hudi_table", // Hive 表的名称,这里是“hudi_table” HIVE_PARTITION_FIELDS_OPT_KEY -> "date", // Hive 分区字段,这里是“date” HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY -> "org.apache.hudi.hive.NonPartitionedExtractor", // Hive 分区提取器的类,这里是“org.apache.hudi.hive.NonPartitionedExtractor” HIVE_STYLE_PARTITIONING_OPT_KEY -> "true", // 是否启用 Hive 样式的分区,这里是“true” HIVE_ASSUME_DATE_PARTITION_OPT_KEY -> "false" // 是否启用日期分区,这里是“false” )) .mode("append") // 写入模式,这里是“append”,即添加新数据 .save("/path/to/hudi_table") // 保存路径,这里是 Hudi 表的路径 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值