六、大数据之Hive-04

六、大数据之Hive-04

DDL数据定义

1、创建数据库
CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];

​ 1、创建一个数据库,数据库在 HDFS 上的默认存储路径是/user/hive/warehouse/*.db。

hive (default)> create database db_hive;

​ 2、避免要创建的数据库已经存在错误,增加 if not exists 判断。(标准写法)

hive (default)> create database db_hive;
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. 
Database db_hive already exists
hive (default)> create database if not exists db_hive;

​ 3、创建一个数据库,指定数据库在 HDFS 上存放的位置

hive (default)> create database db_hive2 location '/db_hive2.db';
2、查询数据库
1、显示数据库

​ 1、显示数据库

hive> show databases;

​ 2、过滤显示查询的数据库

hive> show databases like 'db_hive*';
OK
db_hive
db_hive_1
2、查看数据库详情

​ 1、显示数据库信息

hive> desc database db_hive;
OK
db_hive hdfs://hadoop102:9000/user/hive/warehouse/db_hive.db lyinlUSER

​ 2、显示数据库详细信息,extended

hive> desc database extended db_hive;
OK
db_hive hdfs://hadoop102:9000/user/hive/warehouse/db_hive.db lyinlUSER
3、切换当前数据库
hive (default)> use db_hive;
3、修改数据库

​ 用户可以使用 ALTER DATABASE 命令为某个数据库的 DBPROPERTIES 设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。

hive (default)> alter database db_hive set dbproperties('createtime'='20170830');

​ 在 hive 中查看修改结果

hive> desc database extended db_hive;
db_name comment location owner_name owner_type parameters
db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db lyinlUSER {createtime=20170830}
4、删除数据库
1、删除空数据库
hive>drop database db_hive2;
2、如果删除的数据库不存在,最好采用 if exists 判断数据库是否存在
hive> drop database db_hive;
FAILED: SemanticException [Error 10072]: Database does not exist: db_hive
hive> drop database if exists db_hive2;
3、如果数据库不为空,可以采用 cascade 命令,强制删除
3.如果数据库不为空,可以采用 cascade 命令,强制删除
hive> drop database db_hive;
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. 
InvalidOperationException(message:Database db_hive is not empty. One or more tables 
exist.)
hive> drop database db_hive cascade;
5、创建表
1、建表语法
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 
[(col_name data_type [COMMENT col_comment], ...)] 
[COMMENT table_comment] 
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 
[
### 大数据平台中 Hive 的运维测评与最佳实践 #### 1. Hive 运维的核心关注点 Hive 是一种基于 Hadoop 的分布式数据分析工具,其运维过程中需要重点关注以下几个方面[^1]: - **性能优化**:通过调整查询语句、分区设计以及压缩算法等方式提升查询效率。 - **资源管理**:合理分配 YARN 或 Spark 集群中的计算资源,防止因资源争抢而导致的任务失败。 - **元数据管理**:定期清理无用的表和分区,减少 Metastore 数据库的压力。 #### 2. 性能调优的最佳实践 为了提高 Hive 查询的执行速度,可以采取以下措施[^1]: - 使用合适的文件格式(如 ORC 或 Parquet),这些列式存储格式能够显著降低 I/O 开销。 - 启用谓词下推功能,在读取数据之前就过滤掉不必要的记录。 - 设置合理的并行度参数 `hive.exec.parallel` 和 `mapreduce.job.reduces` 来平衡负载分布。 #### 3. 资源调度策略 在大规模生产环境中,良好的资源调度机制至关重要。推荐采用 Fair Scheduler 或 Capacity Scheduler 对不同优先级的工作流进行隔离处理[^2]: - 定义清晰的服务级别协议(SLA),确保高优先级任务获得足够的计算能力支持。 - 动态扩展节点数量以应对突发流量高峰情况下的需求激增现象。 #### 4. 元数据治理方案 随着时间积累,数据库内的对象数目会快速增长从而影响整体表现效果因此有必要实施有效的元数据管控手段包括但不限于如下几点建议: - 自动化检测长期未被访问过的表格或者分片并且提示管理员考虑删除操作. - 利用 ACID 特性实现事务级别的更新控制使得修改过程更加安全可靠. ```sql -- 示例 SQL: 创建带有分区的外部表 CREATE EXTERNAL TABLE IF NOT EXISTS sales_data ( order_id STRING, product_name STRING, quantity INT, price FLOAT ) PARTITIONED BY (year INT, month INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE LOCATION '/user/hive/warehouse/sales'; ``` #### 5. 日志监控体系构建 建立健全的日志收集分析框架可以帮助快速定位问题根源所在同时也有助于预防潜在风险的发生概率增加系统稳定性水平达到预期目标值范围内保持正常运转状态不变形不损坏等功能特性得以充分体现出来.[^1] ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值