Part3--Hive数据库

1.数据库

1.1 创建数据库

​ 在 HDFS 上的默认存储路径是/user/hive/warehouse/*.db

create database if not exists Test;

image-20220421185152742

1.2 创建指定HDFS上的位置

CREATE database if not exists Testother location '/20220421.db'; 

image-20220421185424442

1.3 修改数据库

​ 使用 ALTER DATABASE 命令为某个数据库的 DBPROPERTIES 设置键-值对属性值,来描述这个数据库的属性信息。数据库的其 他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置

​ 查看数据库的描述:

describe database Testother ;
desc database Testother ;

​ 输出结果:

image-20220421193231422

​ 也可以使用,下面还能看到参数信息

desc database extended Testother ;

image-20220421193604671

​ 对数据数据库信息进行修改

ALTER database Testother set dbproperties('createtime'='20220422');

​ 重新查看输出如下:

image-20220421193720430

1.4 查询数据库

1.4.1 显示数据库:

show databases;

​ 输出:

image-20220421193905064

1.4.2 过滤显示数据库:

​ 使用通配符查询

show databases like "hive*";

​ 输出结果:

image-20220421194026855

1.4.3 显示数据库信息

describe database Testother ;
desc database Testother ;

1.4.4 详细显示数据库信息

describe database extended Testother ;
desc database extended Testother ;

1.5 切换数据库

use hive_test_one ;

1.6 删除数据库

1.6.1 删除空数据库

drop database db_hive2;

1.6.2 数据库不存在的时候

drop database if exists db_hive2;

1.6.3 强制删除数据库

 drop database db_hive cascade;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将RDS数据库的数据抽数到Hive,可以使用Spark SQL来实现。首先,你需要创建一个存放待抽取表名的数组,例如\["customer", "lineitem", "nation", "orders", "part", "partsupp", "region", "supplier"\]。\[2\]然后,你可以使用Spark SQL的insert overwrite语句将数据重写到Hive分区表中。具体的代码如下所示: ``` spark.sql(""" insert overwrite table my.shop_db partition(time) select *, event_time from increment_data """) ``` 在这个例子中,increment_data是一个临时视图,它包含了从RDS数据库中获取的增量数据。\[3\]你可以使用Spark SQL的select语句从RDS数据库中获取增量数据,并将其存储在名为increment_data的临时视图中。然后,使用insert overwrite语句将increment_data中的数据重写到Hive分区表my.shop_db中的相应分区中。 请注意,你需要根据实际情况修改代码中的表名、分区字段和数据抽取逻辑。 #### 引用[.reference_title] - *1* *3* [spark增量抽取MySQL中的数据存入hive动态分区表](https://blog.csdn.net/weixin_46389691/article/details/121974051)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Spark-sql离线抽取全量数据到hive分区表中](https://blog.csdn.net/A2577815094/article/details/126783094)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值