【Hadoop离线基础总结】Hive的基本操作

Hive的基本操作


创建数据库与创建数据库表
  • 创建数据库的相关操作
    创建数据库:CREATE TABLE IF NOT EXISTS myhive
    hive创建表成功后的存放位置由hive-site.xml配置文件中的一个属性指定
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>

    创建数据库并指定hdfs存储位置:CREATE TABLE myhive2 LOCATION '/myhive2'

    修改数据库属性:ALTER DATABASE myhive2 SET DBPROPERITIES ('createtime'='20191201');

    查看数据库基本信息:DESC DATABASE myhive2;
    在这里插入图片描述
    查看数据库更多详细信息:DESC DATABASE EXTENDED myhive2;
    在这里插入图片描述
    删除数据库:DROP DATABASE myhive2;
    强制删除数据库:DROP DATABASE myhive2 CASCADE;

  • 创建数据库表的相关操作
    数据库表语法

    CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 
    [(col_name data_type [COMMENT col_comment], ...)] 
    [COMMENT table_comment] 
    [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 
    [CLUSTERED BY (col_name, col_name, ...) 
    [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] 
    [ROW FORMAT row_format] 
    [STORED AS file_format] 
    [LOCATION hdfs_path]
    

    hive建表时的字段类型参考:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Types

  • hive当中四种常见的表模型
    管理表又称为内部表,作出删除表的操作时,HDFS上对应的数据也会被同步删除
    创建管理表:CREATE TABLE IF NOT EXISTS stu(id INT,name STRING);
    创建完成后,表的数据会存放在HDFS的/user/hive/warehouse/你选择的数据库
    如果在创建的表时指定分隔符和存放位置需要用到关键字hive当中的默认分隔符:\001(键盘打不出来,因为是asc码值,非打印字符,这么做是为了避免分隔符的冲突)

    CREATE TABLE IF NOT EXISIS stu2(
    id INT,name STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
    LOCATION '/user/stu2';
    

    复制表结构和表中的数据CREATE TABLE stu3 AS SELECT * FROM stu2;
    只复制表的结构,不复制表的数据:CREATE TABLE stu4 LIKE stu2;
    查询表的类型:DESC FORMATTED stu2;

    外部表因为外部表是指定其他的HDFS路径的数据加载到表当中来,所以hive表会认为自己不完全独占这份数据,所以删除hive表的时候,数据仍然存放在HDFS当中,不会删掉
    创建外部表:

    CREATE EXTERNAL TABLE tercher(
    t_id STRING,t_name STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    
    CREATE EXTERNAL TABLE student(
    s_id STRING,
    s_name STRING,
    s_birth STRING,
    s_sex STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    

    从本地文件向表中导入数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/student.csv' INTO TABLE student;
    从本地文件向表中导入并覆盖原有数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/student.csv' OVERWRITE INTO TABLE student;
    从HDFS文件系统向表中加载数据:LOAD DATA INPATH '/hivedatas/teacher.csv' INTO TABLE teacher;
    如果删掉student表,HDFS的数据仍然存在,并且重新创建表之后,表中就直接存在数据了,因为我们的student表使用的是外部表,drop table之后,表当中的数据依然保留在HDFS上面了

    分区表一般没有一种独立的表模型,只有内部分区表,或者外部分区表。核心思想是分治。比如三个月的数据表,可以分区到每个月、每周甚至每天一个区,这样需要确切某一天的数据时,找起来会很方便
    创建分区表:

    CREATE TABLE score(
    s_id STRING,c_id STRING,s_score INT)
    PARTITIONED BY (MONTH STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    

    创建一个表带多个分区:

    CREATE TABLE score2(
    s_id STRING,c_id STRING,s_score INT)
    PARTITIONED BY (YEAR STRING,MONTH STRING,DAY STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    

    向分区表中导入数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/score.csv' INTO TABLE score PARTITION (MONTH='201806');
    向一个多分区表中导入数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/score.csv' INTO TABLE score2 PARTITION (YEAR='2018',MONTH='06',DAY='01');
    多分区联合查询:

    SELECT * FROM score WHERE month='201806'
    UNION ALL
    SELECT * FROM score WHERE month='201806';
    

    查看分区:SHOW PARTITIONS score;
    添加一个分区或者多个分区:
    ALTER TABLE score ADD PARTITION(month='201805');
    ALTER TABLE score ADD PARTITION(month='201804') PARTITION(month='201803');
    删除分区:ALTER TABLE score DROP PARTITION(month='201806');
    创建外部分区表

    CREATE EXTERNAL TABLE score4(
    s_id STRING,c_id STRING,s_score INT)
    PARTITIONED BY (month='201806')
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    

    MSCK REPAIR TABLE score4;

    分桶表一般也是与内部表或者外部表搭配使用,就是将数据按照字段进行划分,可以将数据按照字段划分到多个文件当中去
    开启桶表功能:set hive.enforce.bucketing=true;
    创建分桶表

    CREATE TABLE course(
    c_id STRING,c_name STRING,t_id STRING)
    CLUSTERED BY (c_id) INTO 3 BUCKETS
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    

    给分桶表添加数据:INSERT OVERWRITE TBALE course SELECT * FROM course_common CLUSTER BY (c_id);
    修改表的名字:ALTER TABLE score4 RENAME score5;
    增加或修改表内列信息:
    ALTER TABLE score5 ADD columns(mycol STRING,mysco STRING);
    ALTER TABLE score CHANGE column mysco mysconew INT;

    加载数据
    直接向分区表中插入数据:INSERT INTO TABLE score3 PARTITION(month='201807') VALUES('001','002','003');(不推荐用该方法)
    通过查询插入数据:
    (1) LOAD DATA LOCAL INPATH '/export/servers/hivedatas/score.csv' OVERWRITE INTO TABLE score PARTITION(month='201806');
    (2) INSERT OVERWRITE TABLE score PARTITION(month='201806') SELECT s_id,c_id,s_score FROM score;(关键字overwrite必须要有)
    多插入模式

    FROM score
    INSERT OVERWRITE TABLE score_first PARTITION(month='201806') SELECT s_id,c_id,s_score
    INSERT OVERWRITE TABLE score_second PARTITION(month='201806') SELECT s_id,c_id,s_score
    

hive查询语法(大部分和sql语法相同)
  • 格式

    SELECT [ALL | DISTINCT] select_expr, select_expr, ... 
    FROM table_reference
    [WHERE where_condition] 
    [GROUP BY col_list [HAVING condition]] 
    [CLUSTER BY col_list | [DISTRIBUTE BY col_list] [SORT BY| ORDER BY col_list]] 
    [LIMIT number]
    
  • SELECT
    SELECT * FROM socre; 全表查询
    SELECT s_id,c_id FROM score; 指定列查询
    SELECT s_id AS studentID,c_id FROM score; 指定别名查询

  • 常用函数
    SELECT COUNT(1) FROM score; 总行数
    SELECT MAX(s_score) FROM score; 求指定字段最大值
    SELECT MIN(s_score) FROM score; 求指定字段最小值
    SELECT SUM(s_score) FROM score; 求指定字段总和
    SELECT AVG(s_score) FROM score; 求指定字段平均值

  • LIMIT
    SELECT * FROM score LIMIT 3 返回指定行数的数据

  • WHERE
    SELECT * FROM score WHERE s_score > 60; 只查询出符合条件的数据

  • LIKE和RLIKE
    SELECT * FROM score WHERE s_score LIKE '8%'; 查找以8开头的指定字段
    SELECT * FROM score WHERE s_score LIKE '_9%;' 查找第二个数值是9的指定字段
    SELECT * FROM score WHERE s_score RLIKE '[9]';查找成绩中含有9的指定字段

  • GROUP BY
    SELECT s_id,AVG(s_score) FROM score GROUP BY s_id; 按照s_id进行分组,并求出每个学生的平均分数(GROUP BY的字段必须是SELECT后面的字段,SELECT后面的字段不能比GROUP BY后面的字段多)

  • HAVING
    HAVING和WHERE的区别
    1.WHERE是首次筛选,是在产生结果之前进行筛选
    2.HAVING是二次筛选,是在产生结果后对结果再次筛选
    3.WHERE后面不能写分组函数,HAVING可以
    4.HAVING只和GROUP BY一起用

    SELECT s_id,AVG(s_score) AS avgScore FROM score
    GROUP BY s_id
    HAVING avgScore>85;
    
  • JOIN
    (Hive只支持等值连接,不支持非等值连接)
    INNER JOIN(内连接):只有进行连接的两个表中都存在与连接条件相匹配的数据才会被保留下来。

    SELECT * FROM teacher AS t
    INNER JOIN course AS c
    ON t.t_id=c.t_id;
    

    LEFT JOIN(左外连接):JOIN操作符左边表中符合WHERE子句的所有记录将会被返回。

    SELECT * FROM teacher AS t
    LEFT JOIN course AS c
    ON t.t_id=c.t_id;
    

    RIGHT JOIN(右外连接):JOIN操作符右边表中符合WHERE子句的所有记录将会被返回。

    SELECT * FROM teacher AS t
    RIGHT JOIN course AS c
    ON t.t_id=c.t_id;
    

    FULL JOIN(满外连接):将会返回所有表中符合WHERE语句条件的所有记录。如果任一表的指定字段没有符合条件的值的话,那么就使用NULL值替代。

    SELECT * FROM teacher AS t
    FULL JOIN course AS c
    ON t.t_id=c.t_id;
    

    多表连接:连接 n个表,至少需要n-1个连接条件。

    SELECT * FROM teacher AS t
    LEFT JOIN course AS c
    ON t.t_id=c.t_id
    LEFT JOIN score AS s
    ON s.c_id=c.c_id
    LEFT JOIN student AS stu
    ON s.s_id=stu.s_id;
    
  • ORDER BY(全局排序)
    只有一个reduce
    降序 | 升序

    SELECT * FROM student AS stu
    LEFT JOIN score AS s
    ON stu.s_id=s.s_id
    ORDER BY s.s_score DESC|ASC;
    

    多个列排序

    SELECT s_id,AVG(s_score) AS avgScore
    FROM score
    GROUP BY s_id
    ORDER BY s_id,avgScore;
    
  • SORT BY(局部排序)
    每个MapReduce内部进行排序,对全局结果集来说不是排序。
    set mapreduce.job.reduces=3 设置reduce个数
    SELECT * FROM score SORT BY s_score; 按照降序查看成绩
    INSERT OVERWRITE LOCAL DIRECTORY '/export/servers/hivedatas/sort' SELECT * FROM score SORT BY s_score; 按照降序的成绩结果导入到文件中

  • DISTRIBUTE BY(分区排序)
    类似MR中partition,进行分区,结合sort by使用,并且要将DISTRIBUTE BY的语句写在SORT BY之前。(对于distribute by进行测试,一定要分配多reduce进行处理,否则无法看到distribute by的效果)
    先按照学生id进行分区,再按照学生成绩进行排序
    set mapreduce.job.reduces=7 先设置reduce的个数为7个
    通过DISTRIBUTE BY 进行分区,在通过SORT BY排序

INSERT OVERWRITE LOCAL DIRECTORY '/export/servers/hivedatas/sort'
SELECT * FROM score
DISTRIBUTE BY s_id
SORT BY s_score;
  • CLUSTER BY
    当DISTRIBUTE BY和SORT BY字段相同时,可以使用CLUSTER BY方式。
    CLUSTER BY除了具有DISTRIBUTE BY的功能外还兼具SORT BY的功能。但是排序只能是倒序排序,不能指定排序规则为ASC或者DESC
    SELECT * FROM score CLUSTER BY s_id; 相当于 SELECT * FROM score DISTRIBUTE BY s_id SORT BY s_id;

Hive Shell参数
  • Hive命令行
    语法结构 hive [-hiveconf x=y] * [<-i filename>]* [<-f filename>|<-e query-string>] [-S]
    -i 从文件初始化HQL
    -e 从命令行执行指定的HQL
    -f 执行HQL脚本
    -v 输出执行的HQL语句到控制台
    -hiveconf 设置hive运行时候的参数配置

  • Hive参数配置方式
    Hive参数参考:https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties
    对于一般参数,有三种设定方式:
    配置文件用户自定义配置会覆盖默认配置(用户自定义配置文件:$HIVE_CONF_DIR/hive-site.xml/默认配置文件:$HIVE_CONF_DIR/hive-default.xml)。另外,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop的客户端启动的,Hive的配置会覆盖Hadoop的配置。配置文件的设定对本机启动的所有Hive进程都有效。
    命令行参数:启动Hive(客户端或Server方式)时,可以在命令行添加-hiveconf param=value来设定参数。例如bin/hive -hiveconf hive.root.logger=INFO,console。命令行参数只对本次启动的Session(对于Server方式启动,则是所有请求的Sessions)有效。
    参数声明:可以在HQL中使用SET关键字设定参数,例如:set mapred.reduce.tasks=100;。这一设定的作用域也是session级的。
    优先级:参数声明 > 命令行参数 > 配置文件参数(hive)


Hive函数
  • 内置函数
    参考文档:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF
    SHOW FUNCTIONS; 查看系统自带的函数
    DESC FUNCTION UPPER 显示自带函数的用法
    DESC FUNCTION EXTENDED UPPER 显示更为详细的自带函数的用法

  • 自定义函数
    当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数.
    自定义函数可以分为三种:
    UDF(User Defined Function):一进一出类型的,比如大小写转换
    UDAF(User Defined Aggregation Function):聚集函数,多进一出,比如求最值和总数等;
    UDTF(User Defined Table-Generating Function):一进多出,比如lateral view explore()

    官方文档:https://cwiki.apache.org/confluence/display/Hive/HivePlugins

  • UDF开发实例
    第一步:创建maven java工程,导入jar包

    <repositories>
        <repository>
            <id>cloudera</id>
     <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
        </repository>
    </repositories>
    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.6.0-cdh5.14.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>1.1.0-cdh5.14.0</version>
        </dependency>
    </dependencies>
    <build>
    <plugins>
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <version>3.0</version>
            <configuration>
                <source>1.8</source>
                <target>1.8</target>
                <encoding>UTF-8</encoding>
            </configuration>
        </plugin>
         <plugin>
             <groupId>org.apache.maven.plugins</groupId>
             <artifactId>maven-shade-plugin</artifactId>
             <version>2.2</version>
             <executions>
                 <execution>
                     <phase>package</phase>
                     <goals>
                         <goal>shade</goal>
                     </goals>
                     <configuration>
                         <filters>
                             <filter>
                                 <artifact>*:*</artifact>
                                 <excludes>
                                     <exclude>META-INF/*.SF</exclude>
                                     <exclude>META-INF/*.DSA</exclude>
                                     <exclude>META-INF/*/RSA</exclude>
                                 </excludes>
                             </filter>
                         </filters>
                     </configuration>
                 </execution>
             </executions>
         </plugin>
    </plugins>
    </build>
    

    第二步:开发java类继承UDF,并重载evaluate方法

    package cn.itcast.udf;
    
    import org.apache.hadoop.hive.ql.exec.UDF;
    import org.apache.hadoop.io.Text;
    
    public class ItcastUDF extends UDF {
        public Text evaluate(final Text s) {
            if (null == s) {
                return null;
            }
            return new Text(s.toString().toUpperCase());
        }
    }
    

    第三步:将项目打包,并上传到hive的lib目录下
    第四步:添加jar包
    mv original-day06_hive-1.0-SNAPSHOT.jar udf.jar 重命名jar包
    add jar /export/servers/hive-1.1.0-cdh5.14.0/lib/udf.jar; 把jar包添加到hive客户端
    第五步:关联自定义函数
    create temporary function touppercase AS 'cn.itcast.udf.ItcastUDF';
    第六步:使用自定义函数
    SELECT touppercase('abc');


开启Map输出阶段和Reduce输出阶段压缩

开启map输出阶段压缩可以减少job中MapTask和ReduceTask间数据传输量。
set hive.exec.compress.intermediate=true; 开启hive中间传输数据压缩功能
set mapreduce.map.output.compress=true; 开启mapreduce中map输出压缩功能
set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec; 设置mapreduce中map输出数据的压缩方式

set hive.exec.compress.output=true; 开启hive最终输出数据压缩功能
set mapreduce.output.fileoutputformat.compress=true; 开启mapreduce最终输出数据压缩
set mapreduce.output.fileoutputformat.compress.codec = org.apache.hadoop.io.compress.SnappyCodec; 设置mapreduce最终数据输出压缩方式
set mapreduce.output.fileoutputformat.compress.type=BLOCK; 设置mapreduce最终数据输出压缩为块压缩


Hive的数据存储格式
  • 支持的存储格式
    Hive支持的存储数的格式主要有TEXTFILE(行式存储) 、SEQUENCEFILE(行式存储)、ORC(列式存储)、PARQUET(列式存储)。

  • 列式存储和行式存储
    在这里插入图片描述
    列式存储的特点: 因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式存储可以针对性的设计更好的设计压缩算法。
    行式存储的特点: 查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快。

    一般拿到原始数据都是TextFile格式,需要经过分析后,通过INSERT OVERWRITE TABLE tbl_name SELECT * FROM tbl_name2;将分析出的结果导入到另一张临时表中就可以使用Parquet或者orc这些列式存储格式了。

    注意:存储格式和压缩方式没有关系,但是实际工作当中存储格式一般都会和压缩方式一起使用
    orc存储格式本身自带一个叫zlib的压缩方式,就算orc去除掉zlib压缩,它因为列式存储的优势,还是可以将原有的数据变小。
    虽然用zlib压缩的文件大小更小,但是压缩和解压都计较耗时,实际工作中一般都是将orc的存储格式和snappy的压缩方式一起用。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值