hive的工作机制

本文详细介绍了Hive的工作机制,包括创建库与表、内部表与外部表的区别、SequenceFile的使用、Linuxshell执行HQL以及分区表的作用。重点讲解了数据存储路径、表结构管理和性能优化策略。
摘要由CSDN通过智能技术生成

hive的工作机制

1、在hive中建一个库
    ---在hive的元数据库中记录
    ---在hdfs的默认路径下/user/hive/warehouse/ 建一个以 "库名.db" 为名字的文件夹

2、在hive的库中建表
         ---在hive的元数据库中记录
         ---在hdfs的默认路径下  /user/hive/warehouse/库.db/  下建一个 “表名” 为名字的文件夹  
         
3、hive中内部表和外部表的区别

    ----建表时,内部表不用指定数据存放的路径,默认都放在         /user/hive/warehouse/
    ----外部表建表时,要指定external关键字,同时要指定数据存放的路径(要分析的数据在哪就指定哪)
    
    ----内部表删除时,会清掉元数据,同时删掉表文件夹及其中的数据
    ----外部表删除时,只清除元数据
    
4、hive表的数据可以存成多种文件格式,最普通的是textfile,但是性能比较好的是 sequenceFile格式
    ----sequencefile 是一种二进制文件
    ----文件内的内容组织形式为key:value
    ----在hadoop有一个优化场景可以使用sequencefile
             小文件合并成大文件:  
                  ---读一个小文件,就把小文件的文件名作为key,内容作为value,追加到一个大sequencefile文件中
    ----sequencefile文件格式支持较好的压缩性能,而且hadoop的mapreduce程序可以直接从sequencefile的压缩文件中直接读取数据
                 

5、在linux的shell中直接运行HQL语句的方法
//cli shell  

hive -S -e 'select country,count(*) from tab_ext' > /home/hadoop/hivetemp/e.txt   

 这种运行机制非常重要,在生产中就是用这种机制来将大量的HQL逻辑组织在一个批量执行的shell脚本程序中


6、分区表
分区表的意义在于可以针对一个分区来进行统计从而减小统计的数据集
创建分区表要使用关键字  partitioned by (country string)
导入数据到分区表的时候需要指定这份数据所属的分区     load data ..... partition(country='china')    
hive就会在hdfs的表目录建一个分区子文件夹,名字为 country=china ,这一个分区的数据就放在该子文件夹下
针对分区进行的查询和统计只要指定 where条件,将分区标识看成一个普通表字段就可以  where country='china'

  • 8
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小哭包

创作不易,给作者加个鸡腿吧

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值