[Hive]一、大数据技术之Hive

1. Hive入门

1.1 Hive简介

        Hive是由Facebook开源,基于Hadoop的一个数据仓库工具,可以将结构化的数据映射为一张表,并提供类SQL查询功能。

        Hive的本质是一个Hadoop客户端,用于将HQL(HiveSQL)转化成MapReduce程序。

        (1)Hive中每张表的数据存储在HDFS

        (2)Hive分析数据底层的实现是MapReduce(也可以配置为Spark或者Tez引擎)

        (3)执行程序运行在Yarn上

1.2 Hive架构原理

(1)Hive客户端:CLI(command-line interface)、JDBC/ODBC。

说明:JDBC和ODBC的区别,

        1)JDBC的移植性比ODBC好;通常情况下,安装完ODBC驱动程序之后,还需要经过确定的配置才能够应用,而不相同的配置在不相同数据库服务器之间不能够通用。所以,安装一次就需要再配置一次。JDBC只需要选取适当的JDBC数据库驱动程序,就不需要额外的配置。在安装过程中,JDBC数据库驱动程序会自己完成有关的配置。

        2)两者使用的语言不同,JDBC在Java编程时使用,ODBC一般在C/C++编程时使用。

(2)元数据:Metastore

        元数据包括:数据库(默认default)、表名、表拥有者、列/分区字段、表的类型(是否外部表)、表所在目录等信息,默认存储在hive自带的derby数据库中,由于derby数据库只支持单客户端访问,所以一般会把元数据存储在MySQL等关系型数据库中。

(3)驱动器:Driver

        1)解析器(SQLParser):将SQL字符串转换成抽象语法树(AST)

        计算机编译原理中的两个过程:

        词法分析:对用户输入的SQL字符串逐个扫描,根据预制的规则识别特定的单词,生成特殊的符号,每个特殊的符号称之为Token,词法分析完了之后,就会得到一系列Token,比如select token,where token...简单的理解词法分析就是识别SQL中的关键字。

        语法分析:对词法分析中输出的Token做进一步的分析,根据特殊的语法,将若干个Token组成一个短句,然后将这些短句组成完整的语法结构。

        这些完整的语法结构往往都是树状结构,称之为抽象语法树AST(Abstract Syntax Tree)

        2)语义分析(Semantic Analyzer):将AST进一步划分为QeuryBlock

        首先遍历第一步得到的抽象语法树,将抽象语法树中的Token划分为一个一个的查询单元,每一个查询单元包含AST中的一部分。简单的理解为第一个子查询,即每一个查询单元就是一个子查询,每个查询单元中包含一部分Token,这里的术语QueryBlock就是查询单元。划分QueryBlock之后,会去获取hive中的元数据信息,将获取到的元数据信息赋给每个QueryBlock(比如源表路径,目标表路径,等等都赋值给查询单元)

        3)逻辑计划生成器(Logical Plan Gen):将语法树生成逻辑计划

        Logical Plan Generator由一个个的Operator组成,每一个Operator都是单一的逻辑操作,比如TableScan,Select,GroupBy,单一的逻辑操作组合在一起就形成的逻辑执行计划。

        4)逻辑优化器(Logical Optimizer):对逻辑计划进行优化

        谓词下推:将整个执行计划中的Filter操作往前移,也就是尽量把Filter 操作往前移。好处就是减少数据量,减轻后面计算任务的负担。因此谓词下推优化,在不影响最终结果的前提下,有Filter过滤操作的Operator在逻辑优化器中会被提前。

        5)物理计划生成器(Physical Plan Gen):根据优化后的逻辑计划生成物理计划(这里的物理计划,比如MR任务、Spark任务、Tez上任务)

        6)物理优化器(Physical Optimizer):对物理计划进行优化

        map join 优化:两表join过程中,会有一个MR任务来完成,在Map任务端读取两表的数据,根据join的两表中有两表的关联字段进行分区,会把相同key的数据发往同一个reducer,然后在reducer端完成join操作 -- 这是最初的物理执行计划,map join 就是,在物理优化阶段,hive根据元数据信息去判断没有小表(可以缓存在任务给定的内存中的表),hive的map join优化就是将整张小表的数据缓存到每一个mapper中,然后每个mapper再去扫描大表中属于自己切片的数据,那么扫描到一条数据就可以在mapper端完成join操作,这样的一个物理执行计划就比原来的那个高效得多,因为这样做就只有map阶段,没有reduce阶段,也就没有shuffler,因为MR任务的性能瓶颈往往就出在shuffle阶段,shuffle操作去掉了,性能就上去了。那这样把一个普通的join操作,转换成一个map join操作,那我们的物理执行计划就发生了很大的优化,原来是需要MR两个阶段,现在只有一个map阶段。

        7)执行器(Execution):执行该计划,得到查询结果并返回给客户端

(4)Hadoop:使用HDFS进行存储,可以选择MR/Spark/Tez等进行计算。

2. Hive安装

2.1 Hive相关地址

        1)Hive官网地址

        http://hive.apache.org/

        2)文档查看地址

        https://cwiki.apache.org/confluence/display/Hive/GettingStarted

        3)下载地址

        http://archive.apache.org/dist/hive/

        4)github地址

        https://github.com/apache/hive

2.2 Hive安装部署        

tar -zxvf /opt/software/apache-hive-3.1.3-bin.tar.gz -C /opt/module/
mv /opt/module/apache-hive-3.1.3-bin/ /opt/module/hive
sudo vim /etc/profile.d/my_env.sh
    #HIVE_HOME
    export HIVE_HOME=/opt/module/hive
    export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile.d/my_env.sh
# 初始化元数据库(默认是derby数据库)
bin/schematool -dbType derby -initSchema

2.3 安装MySQL数据库

2.3.1 安装MySQL5.7(rpm包方式)

1)上传MySQL安装包以及MySQL驱动jar包

        mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar

        mysql-connector-java-5.1.37.jar

2)解压MySQL安装包

        $ mkdir mysql_lib

        $ tar -xf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar -C mysql_lib/

3)卸载系统自带的mariadb

        $ sudo rpm -qa | grep mariadb | xargs sudo rpm -e --nodeps

4安装MySQL依赖

        $ cd mysql_lib

        $ sudo rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm

        $ sudo rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm

        $ sudo rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm

5安装mysql-client

        $ sudo rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm

6安装mysql-server

        $ sudo rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm

        注意:若出现以下错误

        warning: 05_mysql-community-server-5.7.16-1.el7.x86_64.rpm: Header V3 DSA/SHA1Signature, key ID 5072e1f5: NOKEY

        error: Failed dependencies:

        libaio.so.1()(64bit) is needed by mysql-community-server-5.7.16-1.el7.x86_64

        解决办法:

        $ sudo yum -y install libaio

7启动MySQL

        $ sudo systemctl start mysqld

8查看MySQL密码

        $ sudo cat /var/log/mysqld.log | grep password

2.3.2 配置MySQL

        主要是配置 root用户 + 密码,在任何主机上都能登录MySQL数据库。

1)用刚刚查到的密码进入MySQL(如果报错,给密码加单引号)

        $ mysql -uroot -p'password'

2)设置复杂密码(由于MySQL密码策略,此密码必须足够复杂)

        mysql> set password=password("Qs23=zs32");

3)更改MySQL密码策略

        mysql> set global validate_password_policy=0;

        mysql> set global validate_password_length=4;

4)设置简单好记的密码

        mysql> set password=password("123456");

5)进入MySQL

        mysql> use mysql

6)查询user

        mysql> select user, host from user;

7)修改userHost表内容修改为%

        mysql> update user set host="%" where user="root";

8刷新

        mysql> flush privileges;

9退出

        mysql> quit;

2.3.3 卸载MySQL说明

若因为安装失败或者其他原因,MySQL需要卸载重装,可参考以下内容。

(1)清空原有数据

        ①通过/etc/my.cnf查看MySQL数据的存储位置

        $ sudo cat /etc/my.cnf

        [mysqld]

        datadir=/var/lib/mysql

        ②去往/var/lib/mysql路径需要root权限

        $ su - root

        # cd /var/lib/mysql

        [mysql]# rm -rf *  (注意敲击命令的位置)

(2)卸载MySQL相关包

        ①查看安装过的MySQL相关包

        $ sudo rpm -qa | grep -i -E mysql

        mysql-community-libs-5.7.16-1.el7.x86_64

        mysql-community-client-5.7.16-1.el7.x86_64

        mysql-community-common-5.7.16-1.el7.x86_64

        mysql-community-libs-compat-5.7.16-1.el7.x86_64

        mysql-community-server-5.7.16-1.el7.x86_64

        ②一键卸载命令

        $ rpm -qa | grep -i -E mysql\|mariadb | xargs -n1 sudo rpm -e --nodeps

2.4 配置Hive元数据存储到MySQL

2.4.1 配置元数据到MySQL

1)新建Hive元数据库

        #登录MySQL

        $ mysql -uroot -p123456

        #创建Hive元数据库

        mysql> create database metastore;

        mysql> quit;

2MySQLJDBC驱动拷贝到Hivelib目录下。

        $ cp /opt/software/mysql-connector-java-5.1.37.jar $HIVE_HOME/lib

3)在$HIVE_HOME/conf目录下新建hive-site.xml文件

        $ vim $HIVE_HOME/conf/hive-site.xml

        添加如下内容:

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
    <!-- jdbc连接的URL -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
    </property>
    
    <!-- jdbc连接的Driver-->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>  

    <!-- jdbc连接的username-->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>

    <!-- jdbc连接的password -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>

    <!-- Hive默认在HDFS的工作目录 -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>

</configuration>

5)初始化Hive元数据库(修改为采用MySQL存储元数据)

        $ bin/schematool -dbType mysql -initSchema -verbose

6)解决日志 Jar 包冲突

        $ mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak

2.4.2 验证元数据是否配置成功

1)再次启动Hive

        $ bin/hive

运行hive过程中,会通过which hadoop 去寻找hadoop是否存在,如果存在将其安装目录赋给 HADOOP_DIR

HADOOP_HOME=${HADOOP_HOME:-${HADOOP_PREFIX:-$HADOOP_DIR}}:

这行设置了 HADOOP_HOME 变量。它首先检查是否已经设置了 HADOOP_HOME 变量,如果没有设置,则尝试使用 HADOOP_PREFIX 变量,最后使用前面得到的 HADOOP_DIR(如果有的话)。这样的用法是一种默认值设置的方法,即如果前面的变量未设置则使用后面的变量值。

Q:如果Hive的客户端上没有hadoop环境,如何让Hive找到HDFS并存放数据

A:要让 Hive 找到 HDFS,需要配置 Hive 的元数据存储,并将 Hadoop 的配置信息告知给 Hive。即使 Hive服务器上没有 Hadoop 环境,您仍然可以配置 Hive 以连接到远程的 HDFS 环境。以下是一些步骤:最终仍然要装hadoop客户端。

 

1. 配置 Hive 的元数据存储:

   在 Hive 的配置文件 `hive-site.xml` 中,您需要配置元数据存储,通常使用如下的方式配置:

   ```xml

   <property>

       <name>javax.jdo.option.ConnectionURL</name>

       <value>jdbc:mysql://<MySQL_Hostname>:<MySQL_Port>/hive?createDatabaseIfNotExist=true</value>

       <description>JDBC connect string for a JDBC metastore</description>

   </property>

   ```

 

2. 配置 Hadoop 的核心配置信息:

   在 Hive 的配置文件 `hive-site.xml` 中,需要指定 Hadoop 的配置文件路径:

   ```xml

   <property>

       <name>hive.metastore.warehouse.dir</name>

       <value>/user/hive/warehouse</value> <!-- HDFS 元数据存储 Warehouse 路径 -->

   </property>

   <property>

       <name>fs.defaultFS</name>

       <value>hdfs://<HDFS_NameNode>:8020</value> <!-- NameNode 地址 -->

   </property>

   ```

 

3. 将 Hadoop 配置文件提供给 Hive:

   将 Hadoop 的配置文件(`core-site.xml`, `hdfs-site.xml`, `yarn-site.xml`等)复制到 Hive 服务器上,确保这些文件可以被 Hive 访问到,一般通过设置 `HADOOP_CONF_DIR` 指向这些配置文件的路径。

 

4. 启动 Hive Thrift 服务:

   如果您需要通过远程客户端访问 Hive,可以启动 Hive Thrift 服务。确保 Thrift 服务侦听在正确的端口上,以便从远程客户端连接到 Hive。

 

5. 测试连接:

   最后,您可以测试连接 Hive 是否能够正常访问到 HDFS。可以使用 Hive CLI 或 Hive Beeline 连接到 Hive,并执行一些查询来确认是否能够访问 HDFS 上的数据。

这些是通常配置 Hive 访问远程 HDFS 的步骤,但具体配置细节可能会略有不同,具体根据您的环境和需求进行调整。

2)使用Hive

        hive> show databases;

        hive> show tables;

        hive> create table stu(id int, name string);

        hive> insert into stu values(1,"ss");

        hive> select * from stu;

3)在Xshell窗口中开启另一个窗口开启Hive(两个窗口都可以操作Hive,没有出现异常)

        hive> show databases;

        hive> show tables;

        hive> select * from stu;

2.4.3 查看MySQL中的元数据

1)登录MySQL

        $ mysql -uroot -p123456

2)查看元数据库metastore

        mysql> show databases;

        mysql> use metastore;

        mysql> show tables;

(1)查看元数据库中存储的库信息

mysql> select * from DBS;

+-------+-----------------------+-------------------------------------------+---------+------------+------------+-----------+

| DB_ID | DESC                  | DB_LOCATION_URI                           | NAME    | OWNER_NAME | OWNER_TYPE | CTLG_NAME |

+-------+-----------------------+-------------------------------------------+---------+------------+------------+-----------+

|     1 | Default Hive database | hdfs://hadoop102:8020/user/hive/warehouse | default | public     | ROLE       | hive      |

+-------+-----------------------+-------------------------------------------+---------+------------+------------+-----------+

(2)查看元数据库中存储的表信息

mysql> select * from TBLS;

+--------+-------------+-------+------------------+---------+------------+-----------+-------+----------+---------------+

| TBL_ID | CREATE_TIME | DB_ID | LAST_ACCESS_TIME | OWNER   | OWNER_TYPE | RETENTION | SD_ID | TBL_NAME | TBL_TYPE      |

+--------+-------------+-------+------------------+---------+------------+-----------+-------+----------+---------------+

|      1 |  1656318303 |     1 |                0 | seven | USER       |         0 |     1 | stu      | MANAGED_TABLE |

+--------+-------------+-------+------------------+---------+------------+-----------+-------+----------+---------------+

(3)查看元数据库中存储的表中列相关信息

mysql> select * from COLUMNS_V2;

+-------+----------+---------+------------+-------------+-------------+--------+

| CS_ID | CAT_NAME | DB_NAME | TABLE_NAME | COLUMN_NAME | COLUMN_TYPE | TBL_ID |

+-------+----------+---------+------------+-------------+-------------+--------+

|     1 | hive     | default | stu        | id          | int         |      1 |

|     2 | hive     | default | stu        | name        | string      |      1 |

+-------+----------+---------+------------+-------------+-------------+--------+

2.5 Hive服务部署

2.5.1 hiveserver2服务

Hive的hiveserver2服务的作用是提供jdbc/odbc接口,为用户提供远程访问Hive数据的功能,例如用户期望在个人电脑中访问远程服务中的Hive数据,就需要用到Hiveserver2。

1)用户说明

在远程访问Hive数据时,客户端并未直接访问Hadoop集群,而是由Hivesever2代理访问。

由于Hadoop集群中的数据具备访问权限控制,所以此时需考虑一个问题:那就是访问Hadoop集群的用户身份是谁?是Hiveserver2的启动用户?还是客户端的登录用户?

答案是都有可能,具体是谁,由Hiveserver2的 hive.server2.enable.doAs 参数决定,该参数的含义是是否启用Hiveserver2用户模拟的功能。

若启用,则Hiveserver2会模拟成客户端的登录用户去访问Hadoop集群的数据,不启用,则Hivesever2会直接使用启动用户访问Hadoop集群数据。模拟用户的功能,默认是开启的

具体逻辑如下:

未开启用户模拟功能:

开启用户模拟功能:

生产环境,推荐开启用户模拟功能,因为开启后才能保证各用户之间的权限隔离。

2)配置Hiveserver2认证

HiveServer2 是 Apache Hive 的服务,用于提供对 Hive 数据仓库的远程客户端访问。要在 HiveServer2 上启用用户认证功能,你可以通过以下步骤进行配置。请注意,具体配置可以因版本和环境而异,下面是一般的配置过程:

        1. **打开HiveServer2的配置文件**(通常是 `hive-site.xml`)。

        2. **启用LDAP认证**:
           - 找到相应的属性(如`hive.server2.authentication.ldap.url`,`hive.server2.authentication.ldap.baseDN`等)
           - 配置适当的 LDAP 服务器地址、基本 DN 等信息。

        3. **启用Kerberos认证**:
           - 如果你的环境使用Kerberos,配置 HiveServer2 使用 Kerberos 认证。
           - 相关属性可能包括 `hive.server2.authentication` 设置为 `KERBEROS`,以及相关的 Kerberos 配置属性。

        4. **启用其他认证方式**:
           - HiveServer2 也支持其他认证方式,如SSL、PAM 等,根据需求选择合适的认证方式并进行配置。

        5. **重启HiveServer2服务**:
           - 在修改配置后,需要重启 HiveServer2 服务,使配置生效。

        具体的配置属性名称和值可能因版本和具体需求而有所变化,建议根据你使用的 Hive 版本和认证方式来查看官方文档或相关配置指南,以确保正确配置用户认证功能。对于特定环境和需求,还可以考虑使用安全性更高级别的认证方式来保护 HiveServer2。

3)hiveserver2部署

        (1)Hadoop端配置

        hivesever2的模拟用户功能,依赖于Hadoop提供的proxy user(代理用户功能),只有Hadoop中的代理用户才能模拟其他用户的身份访问Hadoop集群。因此,需要将hiveserver2的启动用户设置为Hadoop的代理用户,配置方式如下:

        修改配置文件core-site.xml,然后记得分发三台机器

        $ cd $HADOOP_HOME/etc/hadoop

        $ vim core-site.xml

        增加如下配置:

<!--配置所有节点的seven用户都可作为代理用户-->
<property>
    <name>hadoop.proxyuser.seven.hosts</name>
    <value>*</value>
</property>

<!--配置seven用户能够代理的用户组为任意组-->
<property>
    <name>hadoop.proxyuser.seven.groups</name>
    <value>*</value>
</property>

<!--配置seven用户能够代理的用户为任意用户-->
<property>
    <name>hadoop.proxyuser.seven.users</name>
    <value>*</value>
</property>

        (2)Hive端配置

        在hive-site.xml文件中添加如下配置信息

        $ vim hive-site.xml        

<!-- 指定hiveserver2连接的host -->
<property>
	<name>hive.server2.thrift.bind.host</name>
	<value>hadoop111</value>
</property>

<!-- 指定hiveserver2连接的端口号 -->
<property>
	<name>hive.server2.thrift.port</name>
	<value>10000</value>
</property>

3)测试

(1)启动hiveserver2

        [hive]$ bin/hive --service hiveserver2

        直接运行 hiveserver2 会阻塞进程,需要采用后台运行的方式:

        nohup hiveserver2 1 > /dev/null &

                0 进程的文件描述符 0 表示标准输入

                1 表示标准输出

                2 表示标准输出

                1 > /dev/null 2>/dev/null

                简化:1 > /dev/null 2>&1

                简化: > /dev/null 2>&1  默认情况下,重定向的就是标准输出,所以1 可以省略

(2)使用命令行客户端beeline进行远程访问

        启动beeline客户端

        [hive]$ bin/beeline -u jdbc:hive2://hadoop102:10000 -n atguigu

        看到如下界面

        Connecting to jdbc:hive2://hadoop102:10000

        Connected to: Apache Hive (version 3.1.3)

        Driver: Hive JDBC (version 3.1.3)

        Transaction isolation: TRANSACTION_REPEATABLE_READ

        Beeline version 3.1.3 by Apache Hive

        0: jdbc:hive2://hadoop102:10000>

(3)使用Datagrip图形化客户端进行远程访问

4)配置DataGrip连接

(1)创建连接

         

(2)配置连接属性

        所有属性配置,和Hive的beeline客户端配置一致即可。初次使用,配置过程会提示缺少JDBC驱动,按照提示下载即可。

        

(3)界面介绍

       

 (4)测试sql执行

      

(5)修改数据库

     

2.5.2 metastore服务

        Hive的metastore服务的作用是为Hive CLI或者Hiveserver2提供元数据访问接口。

1)metastore运行模式

metastore有两种运行模式,分别为嵌入式模式和独立服务模式。下面分别对两种模式进行说明:

(1)嵌入式模式

(2)独立服务模式

 

生产环境中,不推荐使用嵌入式模式。因为其存在以下两个问题:

(1)嵌入式模式下,每个Hive CLI都需要直接连接元数据库,当Hive CLI较多时,数据库压力会比较大。

(2)每个客户端都需要用户元数据库的读写权限,元数据库的安全得不到很好的保证。

2)metastore部署

(1)嵌入式模式

嵌入式模式下,只需保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含连接元数据库所需要的以下参数即可

<!-- jdbc连接的URL -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>
    
<!-- jdbc连接的Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
    
<!-- jdbc连接的username-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>

        hadoop102 上配置metastore 嵌入部署模式,即加上jdbc连接数据库的几个参数,而不加“hive.metastore.uris”这个配置,那么它就会去访问mysql中的元数据;

        将客户端copy到hadoop集群中的另外一个节点hadoop103:在hadoop103 上配置metastore独立部署模式,即配置“hive.metastore.uris” 这个参数,如果配置了这个参数就会去访问hadoop102 上启动的metastore服务,通过metastore服务访问元数据。

(2)独立服务模式

        独立服务模式需做以下配置:

        首先,保证metastore服务的配置文件hive-site.xml中包含连接元数据库所需的以下参数:

<!-- jdbc连接的URL -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>
    
<!-- jdbc连接的Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
    
<!-- jdbc连接的username-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>

        其次,保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含访问metastore服务所需的以下参数:

<!-- 指定metastore服务的地址 -->
<property>
	<name>hive.metastore.uris</name>
	<value>thrift://hadoop102:9083</value>
</property>

        注意:主机名需要改为metastore服务所在节点,端口号无需修改,metastore服务的默认端口就是9083。 

        以上配置中,hive的客户端的 hive-site.xml 中,即配置连接mysql的连接,又配置了连接Metastore的连接,那启动hive客户端的时候,它连接的是谁呢?

        -- 测试发现,连接的是metastore,连接是能连接上,但是在真正访问的时候会去访问配置的metastore 

解决权限问题,暂时先关闭下面的配置:    

    <property>
        <name>hive.server2.enable.doAs</name>
        <value>false</value>
    </property>

3)测试

        此时启动Hive CLI,执行show databases语句,会出现一下错误提示信息:

        hive (default)> show databases;

        FAILED: HiveException java.lang.RuntimeException: Unable to instantiate         org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

        这是因为我们在Hive CLI的配置文件中配置了hive.metastore.uris参数,此时Hive CLI会去请求我们执行的metastore服务地址,所以必须启动metastore服务才能正常使用。

        metastore服务的启动命令如下:

        [@hadoop202 hive]$ hive --service metastore

        2022-04-24 16:58:08: Starting Hive Metastore Server

        注意:启动后该窗口不能再操作,需打开一个新的Xshell窗口来对Hive操作。

        重新启动 Hive CLI,并执行shou databases语句,就能正常访问了

        [@hadoop202 hive]$ bin/hive

2.5.3 编写Hive服务启动脚本

1)前台启动的方式导致需要打开多个Xshell窗口,可以使用如下方式后台方式启动

  • nohup:放在命令开头,表示不挂起,也就是关闭终端进程也继续保持运行状态
  • /dev/null:是Linux文件系统中的一个文件,被称为黑洞,所有写入该文件的内容都会被自动丢弃
  • 2>&1:表示将错误重定向到标准输出上
  • &:放在命令结尾,表示后台运行

一般会组合使用:nohup  [xxx命令操作]> file  2>&1 &,表示将xxx命令运行的结果输出到file中,并保持命令启动的进程在后台运行。

        [hive]$ nohup hive --service metastore 2>&1 &

        [hive]$ nohup hive --service hiveserver2 2>&1 &

 2)为了方便使用,可以直接编写脚本来管理服务的启动和关闭

        [hive]$ vim $HIVE_HOME/bin/hiveservices.sh

        内容如下:

#!/bin/bash

HIVE_LOG_DIR=$HIVE_HOME/logs
if [ ! -d $HIVE_LOG_DIR ]
then
	mkdir -p $HIVE_LOG_DIR
fi

#检查进程是否运行正常,参数1为进程名,参数2为进程端口
function check_process()
{
    pid=$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk '{print $2}')
    ppid=$(netstat -nltp 2>/dev/null | grep $2 | awk '{print $7}' | cut -d '/' -f 1)
    echo $pid
    [[ "$pid" =~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
}

function hive_start()
{
    metapid=$(check_process HiveMetastore 9083)
    cmd="nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"
    [ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"
    server2pid=$(check_process HiveServer2 10000)
    cmd="nohup hive --service hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"
    [ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
}

function hive_stop()
{
metapid=$(check_process HiveMetastore 9083)
    [ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"
    server2pid=$(check_process HiveServer2 10000)
    [ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
}

case $1 in
"start")
    hive_start
    ;;
"stop")
    hive_stop
    ;;
"restart")
    hive_stop
    sleep 2
    hive_start
    ;;
"status")
    check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"
    check_process HiveServer2 10000 >/dev/null && echo "HiveServer2服务运行正常" || echo "HiveServer2服务运行异常"
    ;;
*)
    echo Invalid Args!
    echo 'Usage: '$(basename $0)' start|stop|restart|status'
    ;;
esac

3)添加执行权限

        $ chmod +x $HIVE_HOME/bin/hiveservices.sh

4)启动Hive后台服务

        $ hiveservices.sh start

MR插入一条数据耗时:

第二条数据:

换成Spark:

第一条插入耗时:

第二条数据:

2.6 hive 使用技巧

2.6.1 Hive常用交互命令

$ bin/hive -help

usage: hive

 -d,--define <key=value>          Variable subsitution to apply to hive

                                  commands. e.g. -d A=B or --define A=B

    --database <databasename>     Specify the database to use

 -e <quoted-query-string>         SQL from command line

 -f <filename>                      SQL from files

 -H,--help                        Print help information

    --hiveconf <property=value>   Use value for given property

    --hivevar <key=value>         Variable subsitution to apply to hive

                                  commands. e.g. --hivevar A=B

 -i <filename>                    Initialization SQL file

 -S,--silent                      Silent mode in interactive shell

 -v,--verbose                     Verbose mode (echo executed SQL to the console)

1)在Hive命令行里创建一个表student,并插入1条数据

hive (default)> create table student(id int,name string);

OK

Time taken: 1.291 seconds

hive (default)> insert into table student values(1,"zhangsan");

hive (default)> select * from student;

OK

student.id        student.name

1        zhangsan

Time taken: 0.144 seconds, Fetched: 1 row(s)

2)“-e”不进入hive的交互窗口执行hql语句

        $ bin/hive -e "select id from student;"

3)“-f”执行脚本中的hql语句

(1)在/opt/module/hive/下创建datas目录并在datas目录下创建hivef.sql文件

        $ mkdir datas

        $ vim hivef.sql

(2)文件中写入正确的hql语句

        select * from student;

(3)执行文件中的hql语句

        $ bin/hive -f /opt/module/hive/datas/hivef.sql

(4)执行文件中的hql语句并将结果写入文件中

        $ bin/hive -f /opt/module/hive/datas/hivef.sql  > /opt/module/hive/datas/hive_result.txt

2.6.2 Hive参数配置方式

1)查看当前所有的配置信息

hive>set;

2)参数的配置三种方式

(1)配置文件方式

        默认配置文件:hive-default.xml

        用户自定义配置文件:hive-site.xml

        注意:用户自定义配置会覆盖默认配置。另外,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop的客户端启动的,Hive的配置会覆盖Hadoop的配置。配置文件的设定对本机启动的所有Hive进程都有效。

        hive-default.xml这个配置已经过时,所以不要在配置文件的目录中配置hive-default.xml 这个配置文件。虽然过时,但是在conf目录下的hive-default.xml文件中几乎包含了所有可配置的参数。

(2)命令行参数方式

        ①启动Hive时,可以在命令行添加 -hiveconf param=value来设定参数。例如:

        $ bin/hive -hiveconf mapreduce.job.reduces=10;

        注意:仅对本次Hive启动有效

        ②查看参数设置

        hive (default)> set mapreduce.job.reduces;

(3)参数声明方式

        可以在HQL中使用SET关键字设定参数,例如:

        hive(default)> set mapreduce.job.reduces=10;

        注意:仅对本次Hive启动有效。

        查看参数设置:

        hive(default)> set mapreduce.job.reduces;

        上述三种设定方式的优先级依次递增。即配置文件 < 命令行参数 < 参数声明。注意某些系统级的参数,例如log4j相关的设定,必须用前两种方式设定,因为那些参数的读取在会话建立以前已经完成了。 

2.6.3 Hive常见属性配置

1)Hive客户端显示当前库和表头

(1)在hive-site.xml中加入如下两个配置:

        $ vim hive-site.xml

<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>Whether to print the names of the columns in query output.</description>
</property>

<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>Whether to include the current database in the Hive prompt.</description>
</property>

(2)hive客户端在运行时可以显示当前使用的库和表头信息

        $ hive

        hive (default)> select * from stu;

        OK

        stu.id        stu.name

        1        ss

        Time taken: 1.874 seconds, Fetched: 1 row(s)

        hive (default)>

2)Hive运行日志路径配置

(1)Hive的log默认存放在/tmp/seven/hive.log目录下(当前用户名下)

(2)修改Hive的log存放日志到/opt/module/hive/logs

        修改$HIVE_HOME/conf/hive-log4j2.properties.template文件名称为 hive-log4j2.properties

        [conf]$ pwd

        /opt/module/hive/conf

        $ mv hive-log4j2.properties.template hive-log4j2.properties

        在hive-log4j2.properties文件中修改log存放位置

        [conf]$ vim hive-log4j2.properties

        修改配置如下

        property.hive.log.dir=/opt/module/hive/logs

 3)Hive的JVM堆内存设置

        新版本的Hive启动的时候,默认申请的JVM堆内存大小为256M,JVM堆内存申请的太小,导致后期开启本地模式,执行复杂的SQL时经常会报错:java.lang.OutOfMemoryError: Java heap space,因此最好提前调整一下HADOOP_HEAPSIZE这个参数。

(1)修改$HIVE_HOME/conf下的hive-env.sh.template为hive-env.sh

        []$ pwd

        /opt/module/hive/conf

        $ mv hive-env.sh.template hive-env.sh

(2)将hive-env.sh其中的参数 export HADOOP_HEAPSIZE修改为2048,重启Hive。

修改前

# The heap size of the jvm stared by hive shell script can be controlled via:

# export HADOOP_HEAPSIZE=1024

修改后

# The heap size of the jvm stared by hive shell script can be controlled via:

export HADOOP_HEAPSIZE=2048

 

4)关闭Hadoop虚拟内存检查

在yarn-site.xml中关闭虚拟内存检查。

(1)修改前记得先停Hadoop

        $ pwd

        /opt/module/hadoop-3.1.3/etc/hadoo

       $  vim yarn-site.xml

(2)添加如下配置

<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>

(3)修改完后记得分发yarn-site.xml,并重启yarn。

 

3. DDL(Data Definition Language)数据定义

3.1 数据库(database

3.1.1 创建数据库

1)语法

CREATE DATABASE [IF NOT EXISTS] database_name

[COMMENT database_comment]

[LOCATION hdfs_path]

[WITH DBPROPERTIES (property_name=property_value, ...)];

2)案例

(1)创建一个数据库,不指定路径

        hive (default)> create database db_hive1;

        注:若不指定路径,其默认路径为${hive.metastore.warehouse.dir}/database_name.db

(2)创建一个数据库,指定路径

hive (default)> create database db_hive2 location '/db_hive2';

(3)创建一个数据库,带有dbproperties

hive (default)> create database db_hive3 with dbproperties('create_date'='2022-11-18');

3.1.2 查询数据库

1)展示所有数据库

1)语法

SHOW DATABASES [LIKE 'identifier_with_wildcards'];

注:like通配表达式说明:*表示任意个任意字符,|表示或的关系。

2)案例

hive> show databases like 'db_hive*';

OK

db_hive_1

db_hive_2

2)查看数据库信息

1)语法

DESCRIBE DATABASE [EXTENDED] db_name;

2)案例

查看基本信息

 hive> desc database db_hive3;

OK

db_hive  hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db       even        USER 

查看更多信息

hive> desc database extended db_hive3;

OK

db_name        comment        location        owner_name        owner_type        parameters

db_hive3                hdfs://hadoop102:8020/user/hive/warehouse/db_hive3.db seven   USER        {create_date=2022-11-18}

3.1.3 修改数据库

用户可以使用alter database命令修改数据库某些信息,其中能够修改的信息包括dbproperties、location、owner user。需要注意的是:修改数据库location,不会改变当前已有表的路径信息,而只是改变后续创建的新表的默认的父目录。

1)语法

--修改dbproperties

ALTER DATABASE database_name SET DBPROPERTIES (property_name=property_value, ...);

 --修改location

ALTER DATABASE database_name SET LOCATION hdfs_path;

--修改owner user

ALTER DATABASE database_name SET OWNER USER user_name;

2)案例

1)修改dbproperties

hive> ALTER DATABASE db_hive3 SET DBPROPERTIES ('create_date'='2022-11-20');

3.1.4 删除数据库

1)语法

DROP DATABASE [IF EXISTS] database_name [RESTRICT|CASCADE];

注:RESTRICT:严格模式,若数据库不为空,则会删除失败,默认为该模式。

    CASCADE:级联模式,若数据库不为空,则会将库中的表一并删除。

2)案例

1)删除空数据库

hive> drop database db_hive2;

2)删除非空数据库

hive> drop database db_hive3 cascade;

3.1.5 切换当前数据库

1)语法

USE database_name;

3.2 表(table)

3.2.1 创建表

3.2.1.1 语法

1)普通建表

(1)完整语法

CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name  

[(col_name data_type [COMMENT col_comment], ...)]

[COMMENT table_comment]

[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]

[CLUSTERED BY (col_name, col_name, ...)

[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]

[ROW FORMAT row_format]

[STORED AS file_format]

[LOCATION hdfs_path]

[TBLPROPERTIES (property_name=property_value, ...)]

[注]:知识点,内部表和外部表,数据类型(基本数据类型,复杂数据类型,隐式转换)

这里是一个示例Hive SQL的建表语句,展示了每个参数的用法:

```sql
-- 创建一个名为example_table的外部表,如果表不存在的话
CREATE EXTERNAL TABLE IF NOT EXISTS db_name.example_table
(
    id INT COMMENT 'Unique identifier',
    name STRING COMMENT 'Name of the entity',
    age INT COMMENT 'Age of the entity'
)
COMMENT 'This table stores information about entities'
PARTITIONED BY (date_str STRING COMMENT 'Date partition')
CLUSTERED BY (id) INTO 5 BUCKETS
SORTED BY (name ASC, age DESC)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
STORED AS ORC
LOCATION 'hdfs://hadoop111:9870/user/hive/example_table'
TBLPROPERTIES ('created_by'='Hive', 'source'='external_system');
```

这个示例包含了以下参数的用法:

1. **CREATE EXTERNAL TABLE**: 创建一个外部表。
2. **IF NOT EXISTS**: 如果表不存在则创建。
3. **[db_name.]table_name**: 指定表名(包含可选的数据库名称)。
4. **(col_name data_type [COMMENT col_comment], ...)**: 定义表的列,每列包括名称、数据类型以及注释。
5. **COMMENT table_comment**: 表级注释。
6. **PARTITIONED BY**: 按照指定列对表进行分区。
7. **CLUSTERED BY**: 指定表的数据如何分桶。
8. **SORTED BY**: 指定分桶后的数据如何排序。
9. **ROW FORMAT**: 指定数据的行格式。
10. **STORED AS**: 指定数据存储格式。
11. **LOCATION hdfs_path**: 指定表在HDFS上的存储路径。
12. **TBLPROPERTIES**: 指定表的属性。

(2)关键字说明:

TEMPORARY

        临时表,该表只在当前会话可见,会话结束,表会被删除。

EXTERNAL(重点) 

        外部表,与之相对应的是内部表(管理表)。管理表意味着Hive会完全接管该表,包括元数据和HDFS中的数据。

        而外部表则意味着Hive只接管元数据,而不完全接管HDFS中的数据。

data_type(重点)

Hive中的字段类型可分为基本数据类型和复杂数据类型。

基本数据类型如下:

Hive

说明

定义

tinyint

1byte有符号整数

 

smallint

2byte有符号整数

 

int

4byte有符号整数

 

bigint

8byte有符号整数

 

boolean

布尔类型,true或者false

 

float

单精度浮点数

 

double

双精度浮点数

 

decimal

十进制精准数字类型

decimal(16,2)

varchar

字符序列,需指定最大长度,最大长度的范围是[1,65535]

varchar(32)

string

字符串,无需指定最大长度

 

timestamp

时间类型

 

binary

二进制数据

 

复杂数据类型如下;

类型

说明

定义

取值

array

数组是一组相同类型的值的集合

array<string>

arr[0]

map

map是一组相同类型的键-值对集合

map<string, int>

map['key']

struct

结构体由多个属性组成,每个属性都有自己的属性名和数据类型

struct<id:int, name:string>

struct.id

注:类型转换

Hive的基本数据类型可以做类型转换,转换的方式包括隐式转换以及显示转换。

方式一:隐式转换

具体规则如下:

a. 任何整数类型都可以隐式地转换为一个范围更广的类型,如tinyint可以转换成int,int可以转换成bigint。

b. 所有整数类型、float和string类型都可以隐式地转换成double

c. tinyint、smallint、int都可以转换为float。

d. boolean类型不可以转换为任何其它的类型。

详情可参考Hive官方说明:        https://cwiki.apache.org/confluence/display/hive/languagemanual+types#LanguageManualTypes-AllowedImplicitConversions



方式二:显示转换

可以借助cast函数完成显示的类型转换

a.语法

cast(expr as <type>)

b.案例

hive (default)> select '1' + 2, cast('1' as int) + 2; 

_c0           _c1

3.0            3

在 Hive SQL 中,当你执行 `select '1' + 2, cast('1' as int) + 2;` 这个语句时,会得到以下结果和解释:

`'1' + 2`:
   - 在 Hive SQL 中,由于 `'1'` 是一个字符串(String),而 `2` 是一个整数(Int),在执行字符串和整数之间的加法操作时,Hive 会尝试将字符串转换为数字类型,然后执行加法操作。
   - 当字符串转换为数字时,Hive 会将字符串尝试解析为一个浮点数(Float)。
   - 因此,`'1' + 2` 中的 `'1'` 首先会被转换为浮点数(1.0),然后加上整数 `2`,最终得到结果 `3.0`。

`cast('1' as int) + 2`:
   - 在这个表达式中,通过 `cast('1' as int)` 将字符串 `'1'` 明确地转换为整数类型(Int)。
   - 然后,这个整数 `1` 会被加上整数 `2`,得到结果 `3`。

因此,第一列的结果是 `3.0` 是因为 `'1'` 在计算时被解释为浮点数 `1.0`,而第二列的结果是 `3`,因为 `'1'` 被明确地转换为整数 `1`。这种差异是由于在Hive SQL中执行带有字符串和数字相加的操作时的隐式转换规则引起的。

PARTITIONED BY(重点)

创建分区表

CLUSTERED BY ... SORTED BY...INTO ... BUCKETS(重点)

创建分桶表

ROW FORMAT(重点)

指定SERDE,SERDE是Serializer and Deserializer的简写。Hive使用SERDE序列化和反序列化每行数据。详情可参考 Hive-Serde

DeveloperGuide - Apache Hive - Apache Software Foundationicon-default.png?t=N7T8https://cwiki.apache.org/confluence/display/Hive/DeveloperGuide#DeveloperGuide-HiveSerDe

HDFS 文件到Row对象:

通过HIve SQL(MR任务)去读指定的HDFS文件,需要指定一个InputFileFormat,一般读进来的是 key-value键值对的形式,

如果是文本文件,key 一般就是行号,value对应的就是一行文本内容。Hive拿到这个Key-Value键值对之后需要去做一个反序列化,通过一个反序列化器将key-value键值对封装成一个Row Object。

注:减少beeline客户端输出多余日志的方式:

1.在命令行添加以下配置参数:

beeline --hiveconf hive.server2.logging.operation.level=NONE -u jdbc:hive2://hadoop111:10000 -n seven

2.或者在hive-site.xml中添加以下配置:

  <property>
    <name>hive.server2.logging.operation.enabled</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.server2.logging.operation.log.location</name>
    <value>/opt/log/hive/operation_logs</value>
  </property>

Serializer 和 Deserializer 不需要显示指定,因为会有默认值,比如 create table stu(id int, name string) 这样一个简单的建表语句,用show create查看其完整的建表语句:

# 减少beeline客户端多余日志输出的方式:
beeline --hiveconf hive.server2.logging.operation.level=NONE -u jdbc:hive2://hadoop111:10000 -n seven

0: jdbc:hive2://hadoop111:10000> show create table stu;

+----------------------------------------------------+

|                   createtab_stmt                   |

+----------------------------------------------------+

| CREATE TABLE `stu`(                                |

|   `id` int,                                        |

|   `name` string)                                   |

| ROW FORMAT SERDE                                   |

|   'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'  |

| STORED AS INPUTFORMAT                              |

|   'org.apache.hadoop.mapred.TextInputFormat'       |

| OUTPUTFORMAT                                       |

|   'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat' |

| LOCATION                                           |

|   'hdfs://mycluster/user/hive/warehouse/stu'       |

| TBLPROPERTIES (                                    |

|   'bucketing_version'='2',                         |

|   'transient_lastDdlTime'='1716224908')            |

+----------------------------------------------------+

将时间戳转换为日期字符串的语句:

 SELECT from_unixtime(1716224908) AS standard_timestamp;

 SELECT from_unixtime(1716224908, 'yyyy-MM-dd') AS formatted_date;

语法说明如下:

语法一:DELIMITED关键字表示对文件中的每个字段按照特定分割符进行分割,其会使用默认的SERDE对每行数据进行序列化和反序列化。

ROW FORAMT DELIMITED

[FIELDS TERMINATED BY char]

[COLLECTION ITEMS TERMINATED BY char]

[MAP KEYS TERMINATED BY char]

[LINES TERMINATED BY char]

[NULL DEFINED AS char]

注:

fields terminated by :列分隔符

collection items terminated by : map、struct和array中每个元素之间的分隔符

        对于结构体struct类型的数据,在保存到hive表中的时候,只会保存其value,而不保存key,因为key在建表的时候已经指定,这些信息是元数据信息会保存到元数据库中。

map keys terminated by :map中的key与value的分隔符

lines terminated by :行分隔符

在 Hive SQL 中,你可以使用 `ROW FORMAT DELIMITED` 语句来指定数据文件的字段分隔符、行分隔符等信息。下面是一个具体的示例,展示了如何在 Hive 中创建一个表并指定文件中字段的分隔符等属性的语法:

```sql
CREATE TABLE example_table (
    column1 INT,
    column2 STRING
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n'
STORED AS TEXTFILE;
```

在这个示例中:
- `ROW FORMAT DELIMITED` 表示我们要定义数据的分隔方式。
- `FIELDS TERMINATED BY ','` 指定了字段之间的分隔符是逗号。
- `LINES TERMINATED BY '\n'` 指定了行的分隔符是换行符。
- `STORED AS TEXTFILE` 指定了数据的存储格式为文本文件。

这样,当数据加载到这个表中时,Hive 将按照指定的分隔符解析数据文件中的字段,并将数据存储到表中的相应列中。

通过在 `CREATE TABLE` 语句中使用 `ROW FORMAT DELIMITED` 以及相关属性,你可以更灵活地定义数据文件的格式和如何解析其中的数据,以便在 Hive 中进行处理和分析。

语法二:SERDE关键字可用于指定其他内置的SERDE或者用户自定义的SERDE。例如JSON SERDE,可用于处理JSON字符串。

ROW FORMAT SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value,property_name=property_value, ...)]

在Hive中,使用`ROW FORMAT SERDE`语句定义表的序列化/反序列化器(SerDe),可以指定用于将数据序列化到表中或从表中反序列化的方式。通过`ROW FORMAT SERDE`语句,可以指定特定的SerDe和SerDe属性。以下是一个示例:

```sql
CREATE TABLE example_table(
    column1 STRING,
    column2 INT
)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
WITH SERDEPROPERTIES (
    'field.delim' = ','
);
```

在这个示例中:
- `ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'`指定了使用`LazySimpleSerDe`作为表的序列化/反序列化器。
- `WITH SERDEPROPERTIES ('field.delim' = ',')`指定了`LazySimpleSerDe`的属性,其中`'field.delim' = ','`表示数据中字段之间的分隔符为逗号。

这个示例展示了如何在Hive中创建一个表,并使用`ROW FORMAT SERDE`语句指定SerDe及其属性,以确保数据能够正确地序列化和反序列化。SerDe的选择和属性设置取决于数据的格式和存储需求。

7STORED AS(重点)

指定文件格式,常用的文件格式有,textfile(默认值),sequence file,orc file、parquet file等等。

CREATE TABLE table_name (
    column1 INT,
    column2 STRING
)
STORED AS SEQUENCEFILE;

CREATE TABLE table_name (
    column1 INT,
    column2 STRING
)
STORED AS ORC;

CREATE TABLE table_name (
    column1 INT,
    column2 STRING
)
STORED AS PARQUET;

8LOCATION

指定表所对应的HDFS路径,若不指定路径,其默认值为

${hive.metastore.warehouse.dir}/db_name.db/table_name

9TBLPROPERTIES

用于配置表的一些KV键值对参数

2)Create Table As Select(CTAS)建表

该语法允许用户利用select查询语句返回的结果,直接建表,表的结构和查询语句的结构保持一致,且保证包含select查询语句放回的内容。

CREATE [TEMPORARY] TABLE [IF NOT EXISTS] table_name

[COMMENT table_comment]

[ROW FORMAT row_format]

[STORED AS file_format]

[LOCATION hdfs_path]

[TBLPROPERTIES (property_name=property_value, ...)]

[AS select_statement]

CREATE TEMPORARY TABLE IF NOT EXISTS example_table
COMMENT 'This is an example table'
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
STORED AS TEXTFILE
LOCATION '/user/hive/example'
TBLPROPERTIES ('key1'='value1', 'key2'='value2')
AS
SELECT * FROM source_table;

3)Create Table Like语法

该语法允许用户复刻一张已经存在的表结构,与上述的CTAS语法不同,该语法创建出来的表中不包含数据。

CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name

[LIKE exist_table_name]

[ROW FORMAT row_format]

[STORED AS file_format]

[LOCATION hdfs_path]

[TBLPROPERTIES (property_name=property_value, ...)]

3.2.1.2 案例

1)内部表与外部表

(1)内部表

Hive中默认创建的表都是的内部表,有时也被称为管理表。对于内部表,Hive会完全管理表的元数据和数据文件。

创建内部表如下:

create table if not exists student(
    id int,
    name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';

准备其需要的文件如下,注意字段之间的分隔符。

$ vim /opt/module/datas/student.txt 
1001        student1
1002        student2
1003        student3
1004        student4
1005        student5
1006        student6
1007        student7
1008        student8
1009        student9
1010        student10
1011        student11
1012        student12
1013        student13
1014        student14
1015        student15
1016        student16

上传文件到Hive表指定的路径

        $ hadoop fs -put student.txt /user/hive/warehouse/student

删除表,观察数据HDFS中的数据文件是否还在

hive (default)> drop table student;

(2)外部表

        外部表通常可用于处理其他工具上传的数据文件,对于外部表,Hive只负责管理元数据,不负责管理HDFS中的数据文件。

创建外部表如下:

create external table if not exists student(
    id int,
    name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';

上传文件到Hive表指定的路径

$ hadoop fs -put student.txt /user/hive/warehouse/student

删除表,观察数据HDFS中的数据文件是否还在

hive (default)> drop table student;

2)SERDE和复杂数据类型

本案例重点练习SERDE和复杂数据类型的使用。

若现有如下格式的JSON文件需要由Hive进行分析处理,请考虑如何设计表?

注:以下内容为格式化之后的结果,文件中每行数据为一个完整的JSON字符串。

{
    "name": "dasongsong",
    "friends": [
        "bingbing",
        "lili"
    ],
    "students": {
        "xiaohaihai": 18,
        "xiaoyangyang": 16
    },
    "address": {
        "street": "hui long guan",
        "city": "beijing",
        "postal_code": 10010
    }
}

我们可以考虑使用专门负责JSON文件的JSON Serde,设计表字段时,表的字段与JSON字符串中的一级字段保持一致,对于具有嵌套结构的JSON字符串,考虑使用合适复杂数据类型保存其内容。最终设计出的表结构如下:

hive>

create table teacher

(

    name     string,

    friends  array<string>,

    students map<string,int>,

    address  struct<city:string,street:string,postal_code:int>

)

row format serde 'org.apache.hadoop.hive.serde2.JsonSerDe'

location '/user/hive/warehouse/teacher';

创建该表,并准备以下文件。注意,需要确保文件中每行数据都是一个完整的JSON字符串,JSON SERDE才能正确的处理。

$ vim /opt/module/datas/teacher.txt

{"name":"dasongsong","friends":["bingbing","lili"],"students":{"xiaohaihai":18,"xiaoyangyang":16},"address":{"street":"hui long guan","city":"beijing","postal_code":10010}}

上传文件到Hive表指定的路径

$ hadoop fs -put teacher.txt /user/hive/warehouse/teacher

尝试从复杂数据类型的字段中取值

3)create table as select和create table like
(1)create table as select
hive>create table teacher1 as select * from teacher;

(2)create table like

hive>create table teacher2 like teacher;

3.2.2 查看表

1)展示所有表

(1)语法

SHOW TABLES [IN database_name] LIKE ['identifier_with_wildcards'];

注:like通配表达式说明:*表示任意个任意字符,|表示或的关系。

(2)案例

hive> show tables like 'stu*';

2)查看表信息

(1)语法

DESCRIBE [EXTENDED | FORMATTED] [db_name.]table_name

注:EXTENDED:展示详细信息

        FORMATTED:对详细信息进行格式化的展示

(2)案例

1查看基本信息

hive> desc stu;

2查看更多信息

hive> desc formatted stu;

3.2.3 修改表

1)重命名表

(1)语法

ALTER TABLE table_name RENAME TO new_table_name

(2)案例

hive (default)> alter table stu rename to stu1;

2)修改列信息

(1)语法

1增加列

该语句允许用户增加新的列,新增列的位置位于末尾。

ALTER TABLE table_name ADD COLUMNS (col_name data_type [COMMENT col_comment], ...)

2更新列

该语句允许用户修改指定列的列名、数据类型、注释信息以及在表中的位置。

ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]

3替换列

该语句允许用户用新的列集替换表中原有的全部列。

ALTER TABLE table_name REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)

2)案例

(1)查询表结构

hive (default)> desc stu;

(2)添加列

hive (default)> alter table stu add columns(age int);

(3)查询表结构

hive (default)> desc stu;

(4)更新列

hive (default)> alter table stu change column age ages double;

(6)替换列

hive (default)> alter table stu replace columns(id int, name string);

alter table stu add column(gender string);
alter table stu change column gender gender int after id;

这里遇到一个兼容性问题,原因就是在改变字段的数据类型的时候,必须遵循隐式转换规则,即不能将string 类型隐式转换为int类型,而应该是double类型;

要想解决这个问题,可以修改参数:
set hive.metastore.disallow.incompatible.col.type.changes=
false(默认为true)这样就不会去检测类型是否匹配了。

:以上操作修改的都是Hive表的元数据信息,HDFS上的数据长什么样还是什么样,并没有改变。

3.2.4 删除表

1)语法

DROP TABLE [IF EXISTS] table_name;

2)案例

hive (default)> drop table stu;

3.2.5 清空表

1)语法

TRUNCATE [TABLE] table_name

注意:truncate只能清空管理表,不能删除外部表中数据。

2)案例

hive (default)> truncate table student;

4. DML(Data Manipulation Language)数据操作

4.1 Load

Load语句可将文件导入到Hive表中。

1)语法

hive> LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)];

关键字说明:

(1)local:表示从本地加载数据到Hive表;否则从HDFS加载数据到Hive表。

        如果是直接在hive 命令行登录的客户端,那么这里的local就表示启动hive客户端的服务器本地文件系统;

        如果是通过jdbc连接的客户端,那么local指的是hiveserver2运行的服务器节点。

(2)overwrite:表示覆盖表中已有数据,否则表示追加。

(3)partition:表示上传到指定分区,若目标是分区表,需指定分区。

2)实操案例

(0)创建一张表

create table student(
    id int,
    name string
)
row format delimited fields terminated by '\t';

(1)加载本地文件到hive

hive (default)> load data local inpath '/opt/module/datas/student.txt' into table student;

(2)加载HDFS文件到hive中

①上传文件到HDFS

$ hadoop fs -put /opt/module/datas/student.txt /user/seven

②加载HDFS上数据,导入完成后去HDFS上查看文件是否还存在

hive (default)> load data inpath '/user/student.txt' into table student;

(3)加载数据覆盖表中已有的数据

①上传文件到HDFS

hive (default)> dfs -put /opt/module/datas/student.txt /user;

②加载数据覆盖表中已有的数据

hive (default)> load data inpath '/user/student.txt' overwrite into table student;

注意这里操作的路径是hdfs上的路径,相当于mv操作,执行之后源文件就不存在了。

4.2 Insert

4.2.1  将查询结果插入表中

1)语法

INSERT (INTO | OVERWRITE) TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement;

关键字说明:

(1)INTO:将结果追加到目标表

(2)OVERWRITE:用结果覆盖原有数据

2)案例

(1)新建一张表

hive (default)>
create table student1(
    id int,
    name string
)
row format delimited fields terminated by '\t';

2)根据查询结果插入数据

hive (default)> 
insert overwrite table student1
select
    id,
    name
from student;

4.2.2 将给定Values插入表中

1)语法

INSERT (INTO | OVERWRITE) TABLE tablename [PARTITION (partcol1[=val1], partcol2[=val2] ...)] VALUES values_row [, values_row ...]

2)案例

hive (default)> insert into table  student1 values(1,'wangwu'),(2,'zhaoliu');

4.2.3 将查询结果写入目标路径

1)语法

INSERT OVERWRITE [LOCAL] DIRECTORY directory

  [ROW FORMAT row_format] [STORED AS file_format] select_statement;

2)案例

insert overwrite local directory '/opt/module/datas/student' ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.JsonSerDe'

select id,name from student;

4.3 Export&Import

Export导出语句可将表的数据和元数据信息一并导出到HDFS路径,Import可将Export导出的内容导入Hive,表的数据和元数据信息都会恢复。Export和Import可用于两个Hive实例之间的数据迁移。

1)语法

--导出

EXPORT TABLE tablename TO 'export_target_path' 

--导入

IMPORT [EXTERNAL] TABLE new_or_original_tablename FROM 'source_path' [LOCATION 'import_target_path']

2)案例

--导出

hive> export table default.student to '/user/hive/warehouse/export/student'; 

--导入

hive>import table student3 from '/user/hive/warehouse/export/student';

这里的这个student3表是不存在的。

4.4 Hive 事务:

Hive 的update,delete和merge语句都必须开启Hive transaction。

4.4.1 update

UPDATE is available starting in Hive 0.14.

Updates can only be performed on tables that support ACID. 

Standard Syntax:
UPDATE tablename SET column = value [, column = value ...] [WHERE expression]

4.4.2 delete

DELETE is available starting in Hive 0.14.

Deletes can only be performed on tables that support ACID. 

Standard Syntax:
DELETE FROM tablename [WHERE expression]

4.4.3 merge

MERGE is available starting in Hive 2.2.

Merge can only be performed on tables that support ACID.

Standard Syntax:
MERGE INTO <target table> AS T USING <source expression/table> AS S
ON <boolean expression1>
WHEN MATCHED [AND <boolean expression2>] THEN UPDATE SET <set clause list>
WHEN MATCHED [AND <boolean expression3>] THEN DELETE
WHEN NOT MATCHED [AND <boolean expression4>] THEN INSERT VALUES<value list>

Hive Transactions - Apache Hive - Apache Software Foundation

Configuration

Minimally, these configuration parameters must be set appropriately to turn on transaction support in Hive:

Client Side

Server Side (Metastore)

首先 hive-site.xml中添加配置:

	<property>
        <name>hive.optimize.sort.dynamic.partition</name>
        <value>false</value>
    </property>

    <property>
        <name>hive.support.concurrency</name>
        <value>true</value>
    </property>

    <!--Hive 2.0 以后不是必须-->
    <property>
        <name>hive.enforce.bucketing</name>
        <value>true</value>
    </property>

    <property>
         <name>hive.exec.dynamic.partition.mode</name>
         <value>nonstrict</value>
    </property>

    <property>
          <name>hive.txn.manager</name>
          <value>org.apache.hadoop.hive.ql.lockmgr.DbTxnManager</value>
    </property>
    
    <property>
          <name>hive.compactor.initiator.on</name>
          <value>true</value>
    </property>
    
    <property>
          <name>hive.compactor.worker.threads</name>
          <value>1</value>
    </property>

然后建表语句如下,存储格式为orc,以及添加事务属性:

create table test_update(id int ,name string) stored as orc TBLPROPERTIES('transactional'='true');

开始测试:

插入几条记录:insert into table test_update values (1, 'row1'),(2, 'row2'),(3, 'row3');

然后执行update语句:update test_update set name = 'xyz' where id = 1;

执行delete语句:delete from test_update where id = 3;

没有开启事务不能执行update和delete

 0: jdbc:hive2://hadoop111:10000> update student1 set name = 'student1' where id = 1001;
Error: Error while compiling statement: FAILED: SemanticException [Error 10297]: Attempt to do update or delete on table default.student1 that is not transactional (state=42000,code=10297)

修改方案:

alter table student1 set tblproperties ('transaction'='true');
ALTER TABLE student1 UNSET TBLPROPERTIES ('transaction');
alter table student1 set tblproperties ('transactional'='true');

验证:

[08S01][1] Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Unable to alter table. The table must be stored using an ACID compliant format (such as ORC): default.student1

继续修改:

-- 将表存储格式更改为ORC格式
ALTER TABLE student1 SET FILEFORMAT ORC;

-- 需要覆盖原始数据
insert overwrite table student1
select *
from student;

update student1 set name = 'student1' where id = 1001;

修改前:

修改后:

删除:delete from student1 where id=1001;

-- 直接create as select 不复制源表格式
create table student2 as select * from student1;
show create table student2;
delete from student2 where id=1002;

drop table student2;

-- like 建表语句不复制 tblproperties
create table student2 like student1;
show create table student2;
insert into table student2 select * from student1;
select * from student2;
-- 添加transactional属性
alter table student2 set tblproperties ('transactional' = 'true');
-- 测试delete
delete from student2 where id=1002;
select * from student2;
-- 测试update
update student2 set name='student3' where id = 1003;
select * from student2;

在 Hive 中,Merge 操作通常用于将数据从一个表(源表)合并到另一个表(目标表)中,通常通过一些条件来匹配和更新记录。以下是一个示例的 Merge SQL 语句及说明:

1. **示例 SQL**:
```sql
MERGE INTO target_table USING source_table 
ON target_table.id = source_table.id 
WHEN MATCHED THEN 
  UPDATE SET target_table.col1 = source_table.col1, target_table.col2 = source_table.col2 
WHEN NOT MATCHED THEN 
  INSERT VALUES (source_table.id, source_table.col1, source_table.col2);
```

2. **说明**:
   - `MERGE INTO target_table`: 指定目标表,即要将数据合并到的表。
   - `USING source_table`: 指定源表,即数据来自的表。
   - `ON target_table.id = source_table.id`: 指定匹配条件,根据这个条件来匹配目标表和源表中的记录。这里假设 `id` 是匹配的关键字段。
   - `WHEN MATCHED THEN UPDATE SET ...`: 当记录在目标表和源表中匹配时,执行更新操作,将源表的数据更新到目标表中的指定列。
   - `WHEN NOT MATCHED THEN INSERT VALUES (...)`: 当记录在目标表中找不到匹配时,执行插入操作,将源表中的记录插入到目标表中。

这个 Merge SQL 语句的示例展示了在 Hive 中执行合并操作的典型语法结构,用于更新目标表中的数据并插入新的数据。请根据实际情况调整表名、匹配条件和更新逻辑。 

create table test_merge(id int ,name string) stored as orc TBLPROPERTIES('transactional'='true');

insert into table test_merge values (1, 'row1_m'),(2, 'row2_m'),(3, 'row3_m');

merge into test_merge T using test_update S
    on T.id = S.id
when matched then
    update set T.name = S.name
when not matched then
    insert values (S.id, S.name);

5. DQL(Data Query Language)数据查询

5.1 基础语法

1)官网地址

LanguageManual Select - Apache Hive - Apache Software Foundationicon-default.png?t=N7T8https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Select

2)查询语句语法:

SELECT [ALL | DISTINCT] select_expr, select_expr, ...

  FROM table_reference       -- 从什么表查

  [WHERE where_condition]   -- 过滤

  [GROUP BY col_list]        -- 分组查询

   [HAVING col_list]          -- 分组后过滤

  [ORDER BY col_list [ASC|DESC]]        -- 排序

  [CLUSTER BY col_list

    | [DISTRIBUTE BY col_list] [SORT BY col_list]

  ]

 [LIMIT number]                -- 限制输出的行数

5.2 基本查询(Select…From

5.2.1 数据准备

(0)原始数据

①在/opt/module/hive/datas/路径上创建dept.txt文件,并赋值如下内容:

部门编号 部门名称 部门位置id

[@hadoop102 datas]$ vim dept.txt 

10        行政部        1700
20        财务部        1800
30        教学部        1900
40        销售部        1700

②在/opt/module/hive/datas/路径上创建emp.txt文件,并赋值如下内容:

员工编号 姓名 岗位    薪资  部门

@hadoop102 datas]$ vim emp.txt 

7369        张三        研发        800.00        30
7499        李四        财务        1600.00        20
7521        王五        行政        1250.00        10
7566        赵六        销售        2975.00        40
7654        侯七        研发        1250.00        30
7698        马八        研发        2850.00        30
7782        金九        \N        2450.0        30
7788        银十        行政        3000.00        10
7839        小芳        销售        5000.00        40
7844        小明        销售        1500.00        40
7876        小李        行政        1100.00        10
7900        小元        讲师        950.00        30
7902        小海        行政        3000.00        10
7934        小红明        讲师        1300.00        30

(1)创建部门表

hive (default)>

create table if not exists dept(
    deptno int,    -- 部门编号
    dname string,  -- 部门名称
    loc int        -- 部门位置
)
row format delimited fields terminated by '\t';

(2)创建员工表

hive (default)>

create table if not exists emp(
    empno int,      -- 员工编号
    ename string,   -- 员工姓名
    job string,     -- 员工岗位(大数据工程师、前端工程师、java工程师)
    sal double,     -- 员工薪资
    deptno int      -- 部门编号
)
row format delimited fields terminated by '\t';

(3)导入数据

hive (default)>

load data local inpath '/opt/module/hive/datas/dept.txt' into table dept;

load data local inpath '/opt/module/hive/datas/emp.txt' into table emp;

5.2.2 全表和特定列查询

1)全表查询

hive (default)> select * from emp;

2)选择特定列查询

hive (default)> select empno, ename from emp;

注意:

1SQL 语言大小写不敏感。

(2)SQL 可以写在一行或者多行。

(3)关键字不能被缩写也不能分行。

(4)各子句一般要分行写。

(5)使用缩进提高语句的可读性。

5.2.3 列别名

1)重命名一个列

2)便于计算

3)紧跟列名,也可以在列名和别名之间加入关键字‘AS

4)案例实操

查询名称和部门。

hive (default)>

select

    ename AS name,

    deptno dn

from emp;

5.2.4 Limit语句

典型的查询会返回多行数据。limit子句用于限制返回的行数。

hive (default)> select * from emp limit 5;

hive (default)> select * from emp limit 2,3; -- 表示从第2行开始,向下抓取3行

5.2.5 Where语句

1)使用where子句,将不满足条件的行过滤掉

2where子句紧随from子句

3)案例实操

查询出薪水大于1000的所有员工。

hive (default)> select * from emp where sal > 1000;

注意:where子句中不能使用字段别名。

5.2.6 关系运算函数

1)基本语法

如下操作符主要用于wherehaving语句中。

操作符

支持的数据类型

描述

A=B

基本数据类型

如果A等于B则返回true,反之返回false

A<=>B

基本数据类型

如果A和B都为null或者都不为null,则返回true,如果只有一边为null,返回false

A<>B, A!=B

基本数据类型

A或者B为null则返回null;如果A不等于B,则返回true,反之返回false

A<B

基本数据类型

A或者B为null,则返回null;如果A小于B,则返回true,反之返回false

A<=B

基本数据类型

A或者B为null,则返回null;如果A小于等于B,则返回true,反之返回false

A>B

基本数据类型

A或者B为null,则返回null;如果A大于B,则返回true,反之返回false

A>=B

基本数据类型

A或者B为null,则返回null;如果A大于等于B,则返回true,反之返回false

A [not] between B and C

基本数据类型

如果A,B或者C任一为null,则结果为null。如果A的值大于等于B而且小于或等于C,则结果为true,反之为false。如果使用not关键字则可达到相反的效果。

A is null

所有数据类型

如果A等于null,则返回true,反之返回false

A is not null

所有数据类型

如果A不等于null,则返回true,反之返回false

in(数值1,数值2)

所有数据类型

使用 in运算显示列表中的值

A [not] like B

string 类型

B是一个SQL下的简单正则表达式,也叫通配符模式,如果A与其匹配的话,则返回true;反之返回falseB的表达式说明如下:‘x%’表示A必须以字母‘x’开头,‘%x’表示A必须以字母‘x’结尾,而‘%x%’表示A包含有字母‘x,可以位于开头,结尾或者字符串中间。如果使用not关键字则可达到相反的效果。

% 表示任意个任意字符

_ 表示一个任意字符

show语句中like后面的通配符是 *

A rlike B, A regexp B

string 类型

B是基于java的正则表达式,如果A与其匹配,则返回true;反之返回false。匹配使用的是JDK中的正则表达式接口实现的,因为正则也依据其中的规则。例如,正则表达式必须和整个字符串A相匹配,而不是只需与其字符串匹配。

hive (default)> select * from emp where ename like "张%" or ename like "赵%";
OK
emp.empno	emp.ename	emp.job	emp.sal	emp.deptno
7369	张三	研发	800.0	30
7566	赵六	销售	2975.0	40
Time taken: 0.658 seconds, Fetched: 2 row(s)

5.2.7 逻辑运算函数

1)基本语法(and/or/not

操作符

含义

and

逻辑并

or

逻辑或

not

逻辑否

2)案例实操

(1)查询薪水大于1000,部门是30

hive (default)>

select
    *
from emp
where sal > 1000 and deptno = 30;

(2)查询薪水大于1000,或者部门是30

hive (default)>

select
    *
from emp
where sal>1000 or deptno=30;

(3)查询除了20部门和30部门以外的员工信息

hive (default)>

select
    *
from emp
where deptno not in(30, 20);

5.2.8 聚合函数

1)语法

count(*),表示统计所有行数,包含null值;

在SQL中,`SELECT COUNT(*)` 和 `SELECT COUNT(1)` 都是用来统计表中记录行数的操作,但它们有一些微小的区别:

1. **`SELECT COUNT(*)`**:
   - `COUNT(*)` 会计算表中所有行的数量,包括 NULL 值。
   - 当使用 `SELECT COUNT(*)` 时,数据库会对表中的所有行进行计数,即使某些列的值为 NULL。
   - `COUNT(*)`对表中的所有列进行计数,可以确保包含所有记录。

示例:
```sql
SELECT COUNT(*) FROM emp;
```

2. **`SELECT COUNT(1)`**:
   - `COUNT(1)` 也会统计表中所有行的数量,但它并不关心列中的数据,通常会更高效。
   - 当使用 `SELECT COUNT(1)` 时,数据库会忽略行中的实际数据,只关心计数。
   - 实际上,`COUNT(1)`是一种通用做法,因为数据库只需检查是否存在一行,而不是检查特定的列值。

示例:
```sql
SELECT COUNT(1) FROM emp;
```

在大多数情况下,这两种方式的效果几乎是相同的,但在某些数据库中,
例如MySQL,`COUNT(*)`和`COUNT(1)`的执行效率可能会有微小差异。不过,在实践中这种差异通常可以忽略。

count(某列),表示该列一共有多少行,不包含null值;

max(),求最大值,不包含null,除非所有值都是null;

min(),求最小值,不包含null,除非所有值都是null;

sum(),求和,不包含null。

avg(),求平均值,不包含null。

set mapreduce.framework.name=local

设置MR任务的本地模式,如果数据量小的情况下,MR的本地模式效率比yarn快

2)案例实操

1)求总行数(count

hive (default)> select count(*) cnt from emp;

hive sql执行过程:

 2)求工资的最大值(max

hive (default)> select max(sal) max_sal from emp;

hive sql执行过程:

 3)求工资的最小值(min

hive (default)> select min(sal) min_sal from emp;

hive sql执行过程:

 4)求工资的总和(sum

hive (default)> select sum(sal) sum_sal from emp;

hive sql执行过程:

 5)求工资的平均值(avg

hive (default)> select avg(sal) avg_sal from emp;

hive sql执行过程:

 

5.3 分组

5.3.1 Group By语句

Group By语句通常会和聚合函数一起使用,按照一个或者多个列队结果进行分组,然后对每个组执行聚合操作。

1)案例实操:

(1)计算emp表每个部门的平均工资。

hive (default)>

select
    t.deptno,
    avg(t.sal) avg_sal
from emp t
group by t.deptno;

分组之后可查询(select)的字段只能是分组字段或聚合函数,比如这里按照deptno字段分组之后,select后面接的只能是 deptno或者聚合函数(avg等)

hive sql执行过程:

 (2)计算emp每个部门中每个岗位的最高薪水。

hive (default)>

select
    t.deptno,
    t.job,
    max(t.sal) max_sal
from emp t
group by t.deptno, t.job;

hive sql执行过程:

 

5.3.2 Having语句

1havingwhere不同点

(1)where后面不能写分组聚合函数,而having后面可以使用分组聚合函数

(2)having只用于group by分组统计语句

2)案例实操

(1)求每个部门的平均薪水大于2000的部门

①求每个部门的平均工资。

hive (default)>

select

    deptno,

    avg(sal)

from emp

group by deptno;

hive sql执行过程:

 

②求每个部门的平均薪水大于2000的部门。

hive (default)>

select

    deptno,

    avg(sal) avg_sal

from emp

group by deptno 

having avg_sal > 2000;

hive sql执行过程:

 

5.4 Join语句

5.4.1 等值Join

Hive支持通常的sql join语句,但是只支持等值连接,不支持非等值连接。

在 Apache Hive 中,不等值连接(Non-equi joins)指的是那些连接条件不是简单的相等关系的 JOIN 操作,
例如使用 `>`、`<`、`>=`、`<=` 等条件进行连接。对于不等值连接,在 Hive 中的支持是逐渐增强的。

不等值连接的支持在以下版本中有所改进:

- **Apache Hive 0.13.0**:从这个版本开始,Hive 开始支持某些类型的不等值连接。
但在此之前,非等值连接是不受支持的。

- **Apache Hive 2.3.0**:在这个版本中,Hive 的不等值连接功能进一步改进,提供了更多的优化和支持。
这些优化包括布尔表达式谓词下推,带有不等值连接的 CBO(Cost-Based Optimizer)优化等。

尽管 Hive 在 0.13.0 版本中开始支持不等值连接,但实际的性能和功能可用性仍可能受限。
因此,建议在较新的版本中(如 Hive 2.3.0 及更高版本)使用不等值连接,以获得更好的性能和功能。
在使用不等值连接时,最好在你的 Hive 版本中查看具体的语法规则和最佳实践。

=========MySQL=========
MySQL 支持不等值连接(Non-equi join),可以通过在 `WHERE` 子句中使用非等号条件来实现不等值连接。
这种连接使得在连接两个表时,可以使用除了等号之外的其他比较运算符(如 `<`, `>`, `<=`, `>=`, `!=` 等)来指定连接条件。

以下是一个示例,演示如何在 MySQL 中使用不等值连接:

假设有两个表 `table1` 和 `table2`,您可以使用以下查询来执行一个不等值连接:

```sql
SELECT *
FROM table1
JOIN table2 ON table1.column1 > table2.column2;
```

在这个例子中,`table1` 和 `table2` 根据 `table1.column1` 大于 `table2.column2` 的条件进行连接。

不等值连接在某些情况下可能会导致性能问题,因为它们不能有效地使用索引。
因此,在实际应用中,通常需要谨慎使用不等值连接,并确保在需要时进行适当的索引优化。

1)案例实操

(1)根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门名称。

hive (default)>

select
    e.empno,
    e.ename,
    d.dname
from emp e
join dept d
on e.deptno = d.deptno;

hive sql执行过程:

 

5.4.2 表的别名

1)好处

(1)使用别名可以简化查询。

(2)区分字段的来源。

2)案例实操

合并员工表和部门表。

hive (default)>

select
    e.*,
    d.*
from emp e
join dept d
on e.deptno = d.deptno;

5.4.3 内连接

内连接:只有进行连接的两个表中都存在与连接条件相匹配的数据才会被保留下来。

hive (default)>

select
    e.empno,
    e.ename,
    d.deptno
from emp e
join dept d
on e.deptno = d.deptno;

5.4.4 左外连接

左外连接:join操作符左边表中符合where子句的所有记录将会被返回。

hive (default)>

select
    e.empno,
    e.ename,
    d.deptno
from emp e
left join dept d
on e.deptno = d.deptno;

5.4.5 右外连接

右外连接:join操作符右边表中符合where子句的所有记录将会被返回。

hive (default)>

select
    e.empno,
    e.ename,
    d.deptno
from emp e
right join dept d
on e.deptno = d.deptno;

5.4.6 满外连接

满外连接:将会返回所有表中符合where语句条件的所有记录。如果任一表的指定字段没有符合条件的值的话,那么就使用null值替代。

hive (default)>

select
    e.empno,
    e.ename,
    d.deptno
from emp e
full join dept d
on e.deptno = d.deptno;

5.4.7 多表连接

注意:连接n个表,至少需要n-1个连接条件。例如:连接三个表,至少需要两个连接条件。

数据准备,在/opt/module/hive/datas/下:vim location.txt

部门位置id  部门位置

[atguigu@hadoop102 datas]$ vim location.txt 

1700        北京
1800        上海
1900        深圳

1)创建位置表

hive (default)>

create table if not exists location(
    loc int,           -- 部门位置id
    loc_name string   -- 部门位置
)
row format delimited fields terminated by '\t';

2)导入数据

hive (default)> load data local inpath '/opt/module/hive/datas/location.txt' into table location;

3)多表连接查询

hive (default)>

select
    e.ename,
    d.dname,
    l.loc_name
from emp e
join dept d
on d.deptno = e.deptno
join location l
on d.loc = l.loc;

Hive on MR

Hive on Spark

Hive on Tez

 

 

 

大多数情况下,Hive会对每对join连接对象启动一个MapReduce任务。本例中会首先启动一个MapReduce job对表e和表d进行连接操作,然后会再启动一个MapReduce job将第一个MapReduce job的输出和表l进行连接操作。

注意:为什么不是表d和表l先进行连接操作呢?这是因为Hive总是按照从左到右的顺序执行的。

5.4.8 笛卡尔集

1)笛卡尔集会在下面条件下产生

(1)省略连接条件

(2)连接条件无效

        比如:on 1=1;

               

(3)所有表中的所有行互相连接

2)案例实操

hive (default)>

select
    empno,
    dname
from emp, dept;

hive sql执行过程:

 

5.4.9 联合(union & union all

1union&union all上下拼接

unionunion all都是上下拼接sql的结果,这点是和join有区别的,join是左右关联,unionunion all是上下拼接。union去重,union all不去重。

union和union all在上下拼接sql结果时有两个要求:

(1)两个sql的结果,列的个数必须相同

(2)两个sql的结果,上下所对应列的类型必须一致

-- 注意:union连接,不看字段名,只看字段的数据类型,以及字段数,
--      且返回的虚拟表的字段名以union语句的第一个select查询为准。
select empno emp_id,
       ename,
       job,
       sal,
       deptno
from emp
where deptno = 30
union
select empno,
       ename,
       job,
       sal,
       deptno
from emp
where deptno = 40;

2)案例实操

将员工表30部门的员工信息和40部门的员工信息,利用union进行拼接显示。

hive (default)>

select
    *
from emp
where deptno=30
union
select
    *
from emp
where deptno=40;

5.4.10 MySQL中的join方式

数据库在涉及到多表查询的时候,都会牵扯到两个表的连接问题。那么今天就详细说明一下数据库的连接问题。
首先我们来看第一个:

​​​​​​​​​​​​​​
这就是两张表共有的部分(内连接),取交集。
SQL语句:
SELECT * FROM TABLEA A INNER JOIN TABLEB B ON A.KEY=B.KEY;


A独有的部分加上和A和B公共 的部分。也叫左外连接。
SQL语句:
SELECT * FROM TABLEA A LEFT JOIN TABLEB B
ON A.KEY = B.KEY;


这张图恰好跟左外连接相反(右外连接)。
SQL语句如下:
SELECT * FROM TABLEA A RIGHT JOIN TABLEB B
ON A.KEY = B.KEY;


这张图就是A表独有的部分。
SQL语句如下:
SELECT * FROM TABLEA A LEFT JOIN TABLEB B
ON A.KEY = B.KEY
WHERE B.KEY IS NULL;

这张图是B表独有的部分。
SQL语句如下:
SELECT * FROM TABLEA A RIGHT JOIN TABLEB B
ON A.KEY B.KEY
WHERE A.KEY IS NULL;

上面这张图表示的是两张表的所有部分。就是左外连接+右外连接在去重一次就搞定了(全连接,mysql中不支持,oracle中是支持的)。虽然MySQL不支持全连接的直接实现方式,但是提供了间接的实现方式,就是A表独有+B表独有,在去重一次。
SQL语句如下(正常全连接的SQL语句):
SELECT * FROM TABLEA A FULL OUTER JOIN TABLEB B
ON A.KEY = B.KEY;
但是,在mysql中不支持上面这条语句。
MySQL实现全连接的SQL语句:
SELECT * FROM TABLEA A LEFT JOIN TABLEB B
ON A.KEY = B.KEY
UNION
SELECT * FROM TABLEA A RIGHT JOIN TABLEB B
ON A.KEY = B.KEY;
这里解释一下关键字union:就是连接并去重的意思。

同理,这个模型是一个全外连接。
SQL语句如下:
SELECT * FROM TABLEA A FULL OUTER JOIN TABLEB B
ON A.KEY = B.KEY
WHERE A.KEY IS NULL OR B.KEY IS NULL;

在MySQL中上面这条语句还是不支持。但是,我们还是有间接的实现方式。其实就是第4和第5张图加起来去重就OK了。
MySQL中的语句如下:
SELECT * FROM TABLEA A LEFT JOIN TABLEB B
ON A.KEY = B.KEY
WHERE B.KEY IS NULL
UNION
SELECT * FROM TABLEA A RIGHT JOIN TABLEB B
ON A.KEY = B.KEY
WHERE A.KEY IS NULL;

UNOIN 关键字跟上面的作用一样。
在涉及到多表查询的时候,所有的join 连接都在这里了。

5.5 排序

5.5.1 全局排序(Order By

Order By:全局排序,只有一个Reduce。因为order by的底层逻辑要求数据全局有序,因此只能在一个reducer中排序,即使设置 mapreduce.job.reducers=3 也不会生效,因此在hive 生产环境中order by 是一个高危操作,通常order by limit 连在一起使用,这样全局排好序之后,返回的数据量比较少,只取前几行数据。加了limit之后,会在mapper端做一些优化,比如有100万行数据,两个mapper处理,每个mapper都分到50万行数据处理,由于加了limit 10,那么在各自的mapper中排完序之后只返回前10行数据,这样一个reducer处理的数据量就变少了。

1)使用Order By子句排序

asc(ascend):升序(默认)

desc(descend):降序

2Order By子句在select语句的结尾

3)基础案例实操

(1)查询员工信息按工资升序排列

hive (default)>

select
    *
from emp
order by sal;

hive sql执行过程:

 (2)查询员工信息按工资降序排列

hive (default)>

select
    *
from emp
order by sal desc;

4)按照别名排序案例实操

按照员工薪水的2倍排序。

hive (default)>

select
    ename,
    sal * 2 twosal
from emp
order by twosal;

hive sql执行过程:

 

5)多个列排序案例实操

按照部门和工资升序排序。

hive (default)>

select
    ename,
    deptno,
    sal
from emp
order by deptno, sal;

hive sql执行过程:

 

5.5.2 每个Reduce内部排序(Sort By

Sort By:对于大规模的数据集order by的效率非常低。在很多情况下,并不需要全局排序,此时可以使用Sort by

Sort by为每个reduce产生一个排序文件。每个Reduce内部进行排序,对全局结果集来说不是排序。

1)设置reduce个数

0: jdbc:hive2://hadoop111:10000>  set mapreduce.job.reduces;
+---------------------------+
|            set            |
+---------------------------+
| mapreduce.job.reduces=-1  |
+---------------------------+
1 row selected (0.014 seconds)
0: jdbc:hive2://hadoop111:10000>

在 MapReduce 中,参数 `mapreduce.job.reduces` 用于指定作业的 Reducer 数量。将其设置为 `-1` 具有特殊含义,代表系统会自动确定 Reducer 的数量。系统会根据作业的输入大小以及集群的配置等因素来决定最终使用多少个 Reducer。

设置 `mapreduce.job.reduces=-1` 提供了一种动态调整 Reducer 数量的方法,让系统根据实际情况来优化 Reducer 数量的选择,这可以帮助更好地利用集群资源并提高作业的性能。

hive (default)> set mapreduce.job.reduces=3;

2)查看设置reduce个数

hive (default)> set mapreduce.job.reduces;

3)根据部门编号降序查看员工信息

hive (default)>

select
    *
from emp
sort by deptno desc;

hive sql执行过程:

4)将查询结果导入到文件中(按照部门编号降序排序)

hive (default)> insert overwrite local directory '/opt/module/hive/datas/sortby-result'

 select * from emp sort by deptno desc;

在 Hive 中执行类似 `insert overwrite local directory '/opt/module/hive/datas/sortby-result' select * from emp sort by deptno desc;` 的语句时,在本地文件系统生成分区文件时,并不会按照某个特定字段进行分区。在这样的操作中,Hive 会简单地按照指定的排序规则生成三个文件,但不会根据任何特定字段来进行分区。

如果想要实现按照特定字段进行分区,可以通过使用 `DISTRIBUTE BY` 或者对应字段的 `PARTITION BY` 来实现。在上述语句中,由于缺乏特定的分区键或分区字段的指定,生成的文件将以指定的排序规则(以 `deptno` 降序排列)生成三个文件,但这并不会构成真正意义上的分区,分区内有序的。

000000_0

000001_0

000002_0

结论:sort by 能实现分区内排序,但是不能实现全局排序,因此不能取代order by的功能

5.5.3 分区(Distribute By

Distribute By:在有些情况下,我们需要控制某个特定行应该到哪个Reducer,通常是为了进行后续的聚集操作。distribute by子句可以做这件事。distribute by类似MapReduce中partition(自定义分区),进行分区,结合sort by使用。

对于distribute by进行测试,一定要分配多reduce进行处理,否则无法看到distribute by的效果。

1)案例实操:

(1)先按照部门编号分区,再按照员工编号薪资排序

hive (default)> set mapreduce.job.reduces=3;

hive (default)>
insert overwrite local directory '/opt/module/hive/datas/distribute-result'
select
    *
from emp
distribute by deptno
sort by sal desc;

注意:

distribute by的分区规则是根据分区字段的hash码与reduce的个数进行相除后,余数相同的分到一个区。

Hive要求distribute by语句要写在sort by语句之前

演示完以后mapreduce.job.reduces的值要设置回 -1,否则下面分区or分桶表loadMapReduce的时候会报错。

hive sql执行过程:

 

5.5.4 分区排序(Cluster By

distribute by和sort by字段相同时,可以使用cluster by方式。

cluster by除了具有distribute by的功能外还兼具sort by的功能。但是排序只能是升序排序,不能指定排序规则为asc或者desc

(1)以下两种写法等价

hive (default)>

select
    *
from emp
cluster by deptno;

hive (default)>

select
    *
from emp
distribute by deptno
sort by deptno;

注意:按照部门编号分区,不一定就是固定死的数值,可以是20号和30号部门分到一个分区里面去。

hive sql执行过程:

5.5.5 distribute by/sort by/cluster by 常见使用场景(Transform 语句)

官网地址:

LanguageManual - Apache Hive - Apache Software Foundation

搜索 sort

往下找到主要使用场景,就是和 Transform/Map-Reduce scripts 一起使用。

 在 Hive 中,`TRANSFORM` 语句以及 MapReduce 脚本通常用于处理复杂逻辑或需要外部程序完成的任务。下面是关于这两个概念的一些说明:

 

TRANSFORM 语句:

- `TRANSFORM` 语句是 Hive 中用于在 Map 或 Reduce 阶段执行外部脚本(通常是命令行脚本或其他可执行程序)的关键字。它允许用户调用自定义的转换逻辑,将输入数据作为标准输入(stdin),并输出到标准输出(stdout)。

 

MapReduce 脚本:

- 在 Hive 中,用户可以编写自定义的 MapReduce 脚本,通常使用编程语言(如 Java)或脚本语言(如 Python)。这些脚本可以实现复杂的数据转换和处理逻辑。

- Hive 使用 `TRANSFORM` 语句以及自定义的 MapReduce 脚本来实现用户定义的处理逻辑,这使得在 Hive 中执行更为复杂的计算成为可能。

 

示例:

假设我们有一个需要进行自定义处理的任务,我们可以使用 `TRANSFORM` 语句结合自定义的 MapReduce 脚本来实现。下面是一个示例:

1. 创建一个名为 `my_script.sh` 的 Shell 脚本,用于处理数据。该脚本可以包含任何复杂的数据转换逻辑。

   ```bash

   #!/bin/bash

   while read line; do

       # 处理每一行数据的逻辑

       echo $line | some_processing_command

   done

   ```

2. 在 Hive 中使用 `TRANSFORM` 关键字和该脚本来执行处理任务:

   ```

   FROM input_table

   INSERT OVERWRITE TABLE output_table

   SELECT TRANSFORM(column1, column2)

   USING 'bash my_script.sh'

   AS transformed_column

   ```

通过使用 `TRANSFORM` 结合自定义的 MapReduce 脚本,您可以在 Hive 中执行更为复杂的数据处理与转换操作。

 

官网的案例解释:

Example #1:
FROM (
  FROM pv_users
  MAP pv_users.userid, pv_users.date
  USING 'map_script'
  AS dt, uid
  CLUSTER BY dt) map_output
INSERT OVERWRITE TABLE pv_users_reduced
  REDUCE map_output.dt, map_output.uid
  USING 'reduce_script'
  AS date, count;
FROM (
  FROM pv_users
  SELECT TRANSFORM(pv_users.userid, pv_users.date)
  USING 'map_script'
  AS dt, uid
  CLUSTER BY dt) map_output
INSERT OVERWRITE TABLE pv_users_reduced
  SELECT TRANSFORM(map_output.dt, map_output.uid)
  USING 'reduce_script'
  AS date, count;

上面的 Hive 语句是一个典型的 Hive 查询,用于数据处理和转换。让我们一步步解释这个查询的结构和意图:

1. 第一个查询块:

   - 从 `pv_users` 表中选择数据,并对其进行 Map 操作。

   - `MAP` 表示针对数据执行映射操作,通过执行 `map_script` (自己编写的数据处理脚本)对 `userid` 和 `date` 进行映射处理,生成 `dt` 和 `uid`。

   - 在映射完成后,按照 `dt` 字段进行聚类。

   - 将映射操作的结果插入(覆盖)到名为 `pv_users_reduced` 的目标表中,同时执行 Reduce 操作,使用 `reduce_script`(自己编写的数据处理脚本) 来聚合数据,输出 `date` 和统计值 `count`。

 

2. 第二个查询块:

   - 从 `pv_users` 表中选择数据,并执行 `SELECT TRANSFORM` 操作。

   - `SELECT TRANSFORM` 是用于执行自定义转换操作的方式,通过执行 `map_script` 对 `userid` 和 `date` 进行转换,生成 `dt` 和 `uid`。

   - 在转换后,按照 `dt` 字段进行聚类。

   - 将转换操作的结果插入(覆盖)到名为 `pv_users_reduced` 的目标表中,同时执行 `SELECT TRANSFORM` 操作,再次使用 `reduce_script` 来聚合数据,输出 `date` 和统计值 `count`。

 

总体上,这个查询主要是对 `pv_users` 表中的数据进行映射和转换操作,然后根据特定字段进行聚类,并最终将转换结果插入到同一个表 `pv_users_reduced` 中。这个过程中使用了自定义的 `map_script` 和 `reduce_script` 来处理数据映射和聚合的逻辑。

 

当在Hive 查询中提及 `map_script` 和 `reduce_script` 时,通常这些脚本会被用于数据的映射和聚合。我将为您提供这两个脚本的示例,分别用 Shell、Python 和 Java 实现:

 示例 `map_script`: 

Shell 脚本:

#!/bin/bash

# Shell map_script for data mapping
while read line; do
    # Your mapping logic - Example: extracting fields
    uid=$(echo $line | cut -d ',' -f 1)
    dt=$(echo $line | cut -d ',' -f 2 | awk '{print substr($0,1,10)}')

    # Emitting mapped data
    echo "$dt,$uid"
done

Python 脚本:

# Python map_script for data mapping
import sys

for line in sys.stdin:
    # Your mapping logic - Example: splitting fields
    uid, date = line.strip().split(',')

    # Emitting mapped data
    print(f"{date[:10]},{uid}")

Java 脚本:

// Java map_script for data mapping
import java.util.Scanner;

public class MapScript {
    public static void main(String[] args) {
        Scanner scanner = new Scanner(System.in);
        while (scanner.hasNextLine()) {
            String[] parts = scanner.nextLine().split(",");
            String uid = parts[0];
            String date = parts[1].substring(0, 10);

            // Emitting mapped data
            System.out.println(date + "," + uid);
        }
        scanner.close();
    }
}

示例 `reduce_script`: 

Shell 脚本:

#!/bin/bash

# Shell reduce_script for data aggregation
current_dt=''
count=0

while read line; do
    dt=$(echo $line | cut -d ',' -f 1)

    if [ "$dt" == "$current_dt" ]; then
        ((count++))
    else
        if [ -n "$current_dt" ]; then
            echo "$current_dt,$count"
        fi
        current_dt=$dt
        count=1
    fi
done

# Output for the last group
echo "$current_dt,$count"

Python 脚本:

# Python reduce_script for data aggregation
import sys

current_dt = None
count = 0

for line in sys.stdin:
    dt, _ = line.strip().split(',')
    
    if dt == current_dt:
        count += 1
    else:
        if current_dt:
            print(f"{current_dt},{count}")
        current_dt = dt
        count = 1

# Output for the last group
if current_dt:
    print(f"{current_dt},{count}")

​​​​​​​Java 脚本:

// Java reduce_script for data aggregation
import java.util.Scanner;

public class ReduceScript {
    public static void main(String[] args) {
        Scanner scanner = new Scanner(System.in);
        String currentDt = "";
        int count = 0;

        while (scanner.hasNextLine()) {
            String line = scanner.nextLine();
            String[] parts = line.split(",");
            String dt = parts[0];

            if (dt.equals(currentDt)) {
                count++;
            } else {
                if (!currentDt.isEmpty()) {
                    System.out.println(currentDt + "," + count);
                }
                currentDt = dt;
                count = 1;
            }
        }
        scanner.close();
        if (!currentDt.isEmpty()) {
            System.out.println(currentDt + "," + count);
        }
    }
}

​​​​​​​

Q:如何引入自己编写的Java jar 包

A:在 Hive 脚本中使用自定义的 Map 和 Reduce 脚本时,这些脚本可以是 Shell 脚本、Python 脚本或者 Java 程序。对于Java的jar包,你可以遵循以下步骤:

 

1. 准备 Java Map 和 Reduce 程序:

   - 编写 Map 和 Reduce 的 Java 程序,并将其打包为一个可执行的 JAR 文件。确保你的 Java 程序符合 Hadoop MapReduce 的要求。

 

2. 将 JAR 文件放在可访问的位置:

   - 将你的 JAR 文件上传到一个所有节点都能访问到的路径,比如 HDFS 或本地文件系统。

 

3. 在 Hive 脚本中引用 JAR 文件:

   - 在 Hive 脚本中,使用 ADD JAR 命令引入你准备好的 Java JAR 文件,以便在 Hive 作业中使用其中的代码。示例:`ADD JAR /path/to/your/jarfile.jar;`

 

4. 在 Hive 脚本中使用 Java Map 和 Reduce 程序:

   - 在 Hive 脚本中,引用你的 Java 类,并指定在 Map 或 Reduce 阶段使用这些类。例如:

     ```sql

     ADD FILE /path/to/map_script.jar;

     ADD FILE /path/to/reduce_script.jar;

 

     FROM (

       FROM pv_users

       MAP pv_users.userid, pv_users.date

       USING 'java com.example.MapClass'

       AS dt, uid

       CLUSTER BY dt) map_output

     INSERT OVERWRITE TABLE pv_users_reduced

     REDUCE map_output.dt, map_output.uid

     USING 'java com.example.ReduceClass'

     AS date, count;

     ```

 通过这些步骤,你可以将自定义的 Java Map 和 Reduce 程序引入到 Hive 脚本中,并在 Hive 作业中使用它们来处理数据。

确保你的 Java 代码和打包的 JAR 文件能够正确地在 Hadoop 集群上执行。

 

在 Hive 中运行Transform语句时,map 脚本和 reduce 脚本通常是 Shell 脚本或者其他可执行的脚本文件(如 Python 脚本)。这些脚本文件应该位于可以被 Hadoop 集群中所有节点访问的位置,比如 Hadoop 集群的共享文件系统(比如 HDFS)、本地文件系统中的某个共享目录,或者每个节点本地文件系统中相同的位置

 

通常情况下,建议将这些脚本文件放在 HDFS 中或者配置一个共享目录,这样所有节点都能够访问到这些脚本文件。你可以通过以下两种方式将脚本文件放在合适的位置:

1. 放在 HDFS 中:将 map_scripts 和 reduce_scripts 上传到 HDFS 中的某个目录,比如 `/user/hive/scripts/`,然后在 Hive 脚本中引用这些脚本的 HDFS 路径

2. 放在本地文件系统中的共享目录:将脚本文件放在每个节点都可以访问的共享目录中,然后在 Hive 脚本中使用这些本地文件系统的路径。

无论你选择哪种方式,确保所有节点上的 Hive 进程都能够访问到这些脚本文件,以便在执行 Hive 查询时能够正确调用这些脚本。 

比如:

-- 通过 MAP 和 REDUCE 关键字引入脚本文件
FROM (
  FROM pv_users
  MAP pv_users.userid, pv_users.date
  USING 'hdfs:///path/to/map_example.sh'  -- 引入 map_script 脚本
  AS dt, uid
  CLUSTER BY dt) map_output
INSERT OVERWRITE TABLE pv_users_reduced
  REDUCE map_output.dt, map_output.uid
  USING 'hdfs:///path/to/reduce_example.sh'  -- 引入 reduce_script 脚本
  AS date, count;

-- 通过 SELECT TRANSFORM 引入脚本文件
FROM (
  FROM pv_users
  SELECT TRANSFORM(pv_users.userid, pv_users.date)
  USING 'hdfs:///path/to/map_example.sh'  -- 引入 map_script 脚本
  AS dt, uid
  CLUSTER BY dt) map_output
INSERT OVERWRITE TABLE pv_users_reduced
  SELECT TRANSFORM(map_output.dt, map_output.uid)
  USING USING 'hdfs:///path/to/reduce_example.sh' -- 引入 reduce_script 脚本
  AS date, count;

===================
USING 'hdfs:///path/to/map_example.sh'
USING '/absolute/path/to/reduce_example.sh'
===================

6. 函数

6.1 函数简介

Hive会将常用的逻辑封装成函数给用户进行使用,类似于Java中的函数。

好处:避免用户反复写逻辑,可以直接拿来使用。

重点:用户需要知道函数叫什么,能做什么。

Hive提供了大量的内置函数,按照其特点可大致分为如下几类:单行函数、聚合函数、炸裂函数、窗口函数。

以下命令可用于查询所有内置函数的相关信息。

1)查看系统内置函数

hive> show functions;

2)查看内置函数用法

hive> desc function upper;

3)查看内置函数详细信息

hive> desc function extended upper;

加上extended 关键字会打印出一些案例,以及这个函数所在的类的全类名。

hive (default)> desc function extended upper;
OK
tab_name
upper(str) - Returns str with all characters changed to uppercase
Synonyms: ucase
Example:
  > SELECT upper('Facebook') FROM src LIMIT 1;
  'FACEBOOK'
Function class:org.apache.hadoop.hive.ql.udf.generic.GenericUDFUpper
Function type:BUILTIN
Time taken: 0.098 seconds, Fetched: 7 row(s)
hive (default)>

6.2 单行函数

单行函数的特点是一进一出,即输入一行,输出一行。

单行函数按照功能可分为如下几类:

        日期函数、字符串函数、集合函数、数学函数、流程控制函数等。

6.2.1 算术运算函数

运算符

描述

A+B

A和B 相加

A-B

A减去B

A*B

A和B 相乘

A/B

A除以B

A%B

A对B取余

A&B

A和B按位取与

A|B

A和B按位取或

A^B

A和B按位取异或

~A

A按位取反

案例实操:查询出所有员工的薪水后加1显示。

hive (default)> select sal + 1 from emp;

6.2.2 数值函数

1)round:四舍五入

hive> select round(3.3);   3

DataGrip快捷键 光标移动到函数参数位置,按下Ctrl + p 就可以提示该输入什么样的参数。

2)ceil:向上取整

hive> select ceil(3.1) ;   4

3)floor:向下取整

hive> select floor(4.8);  4

6.2.3 字符串函数

1)substring:截取字符串

语法一:substring(string A, int start)

返回值:string

说明:返回字符串A从start位置到结尾的字符串

语法二:substring(string A, int start, int len)

返回值:string

说明:返回字符串A从start位置开始,长度为len的字符串

案例实操:

(1)获取第二个字符以后的所有字符

hive> select substring("seven",2);

输出:

even

(2)获取倒数第三个字符以后的所有字符

hive> select substring("seven",-3);

输出:

ven

(3)从第3个字符开始,向后获取2个字符

hive> select substring("seven",3,2);

输出:

ve

2)replace :替换

语法:replace(string A, string B, string C)

返回值:string

说明:将字符串A中的子字符串B替换为C。

hive> select replace('seven', 's', 'S')

输出:

hive> Seven

3)regexp_replace:正则替换

语法:regexp_replace(string A, string B, string C)

返回值:string

说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符

案例实操:

hive> select regexp_replace('100-200', '(\\d+)', 'num')

输出:

hive> num-num

正则可视化网站:将你输入的正则表达式以可视化的方式展示,并有一些常见正则表达式的写法

正则表达式可视化-Visual Regexp:在线测试、学习、构建正则表达式

4)regexp:正则匹配

语法:字符串 regexp 正则表达式

返回值:boolean

说明:若字符串符合正则表达式,则返回true,否则返回false。

(1)正则匹配成功,输出true

hive> select 'dfsaaaa' regexp 'dfsa+'

输出:

hive> true

(2)正则匹配失败,输出false

hive> select 'dfsaaaa' regexp 'dfsb+';

输出:

hive> false

5)repeat:重复字符串

语法:repeat(string A, int n)

返回值:string

说明:将字符串A重复n遍。

hive> select repeat('123', 3);

输出:

hive> 123123123

6)split :字符串切割

语法:split(string str, string pat)

返回值:array

说明:按照正则表达式pat匹配到的内容分割str,分割后的字符串,以数组的形式返回。

hive> select split('a-b-c-d','-');

输出:

hive> ["a","b","c","d"]

注意:split函数第二个参数是一个正则表达式,所以在正则表达式中有含义的字符需要转义,比如'.','*',''\' 等,在hive中需要变成 '\\.',\\*','\\',因为'\'本身有特殊含义,因此在hive中表达转义要'\\'.

7)nvl :替换null值

语法:nvl(A,B)

说明:若A的值不为null,则返回A,否则返回B。

hive> select nvl(null,1);

输出:

hive> 1

8)concat :拼接字符串

语法:concat(string A, string B, string C, ……)

返回:string

说明:将A,B,C……等字符拼接为一个字符串

hive> select concat('beijing','-','shanghai','-','shenzhen');

输出:

hive> beijing-shanghai-shenzhen

Hive 中 || 也表示字符串的拼接,比如: select "BJ"||"-"||"SH";

9)concat_ws:以指定分隔符拼接字符串或者字符串数组

语法:concat_ws(string A, string…| array(string))

返回值:string

说明:使用分隔符A拼接多个字符串,或者一个数组的所有元素。

hive>select concat_ws('-','beijing','shanghai','shenzhen');

输出:

hive> beijing-shanghai-shenzhen

hive> select concat_ws('-',array('beijing','shenzhen','shanghai'));

输出:

hive> beijing-shanghai-shenzhen

10)get_json_object:解析json字符串

语法:get_json_object(string json_string, string path)

返回值:string

说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。

案例实操:

(1)获取json数组里面的json具体数据

hive> select get_json_object('[{"name":"大海海","sex":"男","age":"25"},{"name":"小宋宋","sex":"男","age":"47"}]','$.[0].name');

输出:

 大海海

(2)获取json数组里面的数据

hive> select get_json_object('[{"name":"大海海","sex":"男","age":"25"},{"name":"小宋宋","sex":"男","age":"47"}]','$.[0]');

输出:

 {"name":"大海海","sex":"男","age":"25"}

6.2.4 日期函数

1)unix_timestamp:返回当前或指定时间的时间戳

语法:unix_timestamp()

返回值:bigint

案例实操:

hive> select unix_timestamp('2022/08/08 08-08-08','yyyy/MM/dd HH-mm-ss'); 

输出:

1659946088

说明:-前面是日期后面是指,日期传进来的具体格式

2)from_unixtime:转化UNIX时间戳(从 1970-01-01 00:00:00 UTC 到指定时间的秒数)到当前时区的时间格式

语法:from_unixtime(bigint unixtime[, string format])

返回值:string

案例实操:

hive> select from_unixtime(1659946088);  

输出:

2022-08-08 08:08:08

注意

这两个函数的时区都是以0时区为准的,

这里返回的是当前的时间戳;使用from_unixtime(),将其转换的时候,发现并不是与当前所在时区一致。

使用时需要处理时区问题,去hive官网找时间相关的函数:

LanguageManual UDF - Apache Hive - Apache Software Foundation

Return Type

Name(Signature)

Description

timestamp

from_utc_timestamp({any primitive type} ts, string timezone)

Converts a timestamp* in UTC to a given timezone (as of Hive 0.8.0).

* timestamp is a primitive type, including timestamp/date, tinyint/smallint/int/bigint, float/double and decimal.

Fractional values are considered as seconds. Integer values are considered as milliseconds. For example, from_utc_timestamp(2592000.0,'PST'), from_utc_timestamp(2592000000,'PST') and from_utc_timestamp(timestamp '1970-01-30 16:00:00','PST') all return the timestamp 1970-01-30 08:00:00.

timestamp

to_utc_timestamp({any primitive type} ts, string timezone)

Converts a timestamp* in a given timezone to UTC (as of Hive 0.8.0).

* timestamp is a primitive type, including timestamp/date, tinyint/smallint/int/bigint, float/double and decimal.

Fractional values are considered as seconds. Integer values are considered as milliseconds. For example, to_utc_timestamp(2592000.0,'PST'), to_utc_timestamp(2592000000,'PST') and to_utc_timestamp(timestamp '1970-01-30 16:00:00','PST') all return the timestamp 1970-01-31 00:00:00.

需求:将UTC时区的时间戳,转换为东八区的时间戳

注意传参时,ts 可以是timestamp/date,int/bigint/float/double 任意类型的值,但是如果是小数会被认为是秒去处理(Fractional values are considered as seconds.),如果是整数会被认为是毫秒去处理(Integer values are considered as milliseconds)

刚才案例中的“1717319422”会被认为是毫秒去处理,因此要加上三个000

select from_utc_timestamp(1717319422000, 'GMT+8')

上面的案例中,还有一个越界问题,因为整数默认会认为是int 类型,而 1717319422 * 1000 已经超出了int的表数范围,因此会导致越界的部分被截断。

需要使用cast 函数,将其中一个数值的类型转换为bigint。

select cast(1000 as bigint) * 1717319422;

3)current_date:当前日期    

hive> select current_date;    

输出:

2022-07-11

4)current_timestamp:当前的日期加时间,并且精确的毫秒

hive> select current_timestamp;  

输出:

2022-07-11 15:32:22.402

5)month:获取日期中的月

语法:month (string date)

返回值:int

案例实操:

hive> select month('2022-08-08 08:08:08');

输出:

8

6)day:获取日期中的日

语法:day (string date)

返回值:int

案例实操:

hive> select day('2022-08-08 08:08:08')   

输出:

8

7)hour:获取日期中的小时

语法:hour (string date)

返回值:int

案例实操:

hive> select hour('2022-08-08 08:08:08');  

输出:

8

8)datediff:两个日期相差的天数(结束日期减去开始日期的天数)

语法:datediff(string enddate, string startdate)

返回值:int

案例实操:

hive> select datediff('2021-08-08','2022-10-09');    

输出:

-427

9)date_add:日期加天数

语法:date_add(string startdate, int days)

返回值:string

说明:返回开始日期 startdate 增加 days 天后的日期

案例实操:

hive> select date_add('2022-08-08',2);  

输出:

2022-08-10

10)date_sub:日期减天数

语法:date_sub (string startdate, int days)

返回值:string

说明:返回开始日期startdate减少days天后的日期。

案例实操:

hive> select date_sub('2022-08-08',2);   

输出:

2022-08-06

11)date_format:将标准日期解析成指定格式字符串

hive> select date_format('2022-08-08','yyyy年-MM月-dd日')  

输出:

2022年-08月-08日

6.2.5 流程控制函数

1)case when:条件判断函数

语法一:case when a then b [when c then d]* [else e] end

返回值:T

说明:如果a为true,则返回b;如果c为true,则返回d;否则返回 e

hive> select case when 1=2 then 'tom' when 2=2 then 'mary' else 'tim' end from tabl eName;

mary

语法二: case a when b then c [when d then e]* [else f] end

返回值: T

说明:如果a等于b,那么返回c;如果a等于d,那么返回e;否则返回f

hive> select case 100 when 50 then 'tom' when 100 then 'mary' else 'tim' end from t ableName;

mary

案例:

当所有的判断条件都一样的时候,可以简化语法:

2)if: 条件判断,类似于Java中三元运算符

语法:if(boolean testCondition, T valueTrue, T valueFalseOrNull)

返回值:T

说明:当条件testCondition为true时,返回valueTrue;否则返回valueFalseOrNull

(1)条件满足,输出正确

hive> select if(10 > 5,'正确','错误');

输出:正确

(2)条件满足,输出错误

hive> select if(10 < 5,'正确','错误');

输出:错误

6.2.6 集合函数

1)size:集合中元素的个数

hive> select size(friends) from test;  --2/2  每一行数据中的friends集合里的个数

2)map:创建map集合

语法:map (key1, value1, key2, value2, …)

说明:根据输入的key和value对构建map类型

案例实操:

hive> select map('xiaohai',1,'dahai',2); 

输出:

hive> {"xiaohai":1,"dahai":2}

3)map_keys: 返回map中的key

hive> select map_keys(map('xiaohai',1,'dahai',2));

输出:

hive>["xiaohai","dahai"]

4)map_values: 返回map中的value

hive> select map_values(map('xiaohai',1,'dahai',2));

输出:

hive>[1,2]

5)array 声明array集合

语法:array(val1, val2, …)

说明:根据输入的参数构建数组array类

案例实操:

hive> select array('1','2','3','4');

输出:

hive>["1","2","3","4"]

6)array_contains: 判断array中是否包含某个元素

hive> select array_contains(array('a','b','c','d'),'a');

输出:

hive> true

7)sort_array:将array中的元素排序

hive> select sort_array(array('a','d','c'));

输出:

hive> ["a","c","d"]

8)struct声明struct中的各属性

语法:struct(val1, val2, val3, …)

说明:根据输入的参数构建结构体struct类

案例实操:

hive> select struct('name','age','weight');

输出:

hive> {"col1":"name","col2":"age","col3":"weight"}

9)named_struct声明struct的属性和值

hive> select named_struct('name','xiaosong','age',18,'weight',80);

输出:

hive> {"name":"xiaosong","age":18,"weight":80}

6.2.7 案例演示

1. 数据准备

1)表结构

name

sex

birthday

hiredate

job

salary

bonus

friends

children

张无忌

1980/02/12

2022/08/09

销售

3000

12000

[阿朱,小昭]

{张小无:8,张小忌:9}

赵敏

1982/05/18

2022/09/10

行政

9000

2000

[阿三,阿四]

{赵小敏:8}

黄蓉

1982/04/13

2022/06/11

行政

12000

Null

[东邪,西毒]

{郭芙:5,郭襄:4}

2)建表语句

hive>

create  table  employee(
    name string,  --姓名
    sex  string,  --性别
    birthday string, --出生年月
    hiredate string, --入职日期
    job string,   --岗位
    salary double, --薪资
    bonus double,  --奖金
    friends array<string>, --朋友
    children map<string,int> --孩子
)

3)插入数据hive>

insert into employee
  values('张无忌','男','1980/02/12','2022/08/09','销售',3000,12000,array('阿朱','小昭'),map('张小无',8,'张小忌',9)),
        ('赵敏','女','1982/05/18','2022/09/10','行政',9000,2000,array('阿三','阿四'),map('赵小敏',8)),
        ('宋青书','男','1981/03/15','2022/04/09','研发',18000,1000,array('王五','赵六'),map('宋小青',7,'宋小书',5)),
        ('周芷若','女','1981/03/17','2022/04/10','研发',18000,1000,array('王五','赵六'),map('宋小青',7,'宋小书',5)),
        ('郭靖','男','1985/03/11','2022/07/19','销售',2000,13000,array('南帝','北丐'),map('郭芙',5,'郭襄',4)),
        ('黄蓉','女','1982/12/13','2022/06/11','行政',12000,null,array('东邪','西毒'),map('郭芙',5,'郭襄',4)),
        ('杨过','男','1988/01/30','2022/08/13','前台',5000,null,array('郭靖','黄蓉'),map('杨小过',2)),
        ('小龙女','女','1985/02/12','2022/09/24','前台',6000,null,array('张三','李四'),map('杨小过',2))

2. 需求

1)统计每个月的入职人数

(1)期望结果

month

cnt

4

2

6

1

7

1

8

2

9

2

(2)需求实现

select
  month(replace(hiredate,'/','-')) as month,
  count(*) as cn
from
  employee
group by
  month(replace(hiredate,'/','-'))

2)查询每个人的年龄(年 + 月)

(1)期望结果

name

age

张无忌

42年8月

赵敏

40年5月

宋青书

41年7月

周芷若

41年7月

郭靖

37年7月

黄蓉

39年10月

杨过

34年9月

小龙女

37年8月

(2)需求实现

-- 转换日期 

select
  name,
  replace(birthday,'/','-') birthday
from
  employee  t1

-- 求出年和月

select
  name,
  year(current_date())-year(t1.birthday) year,
  month(current_date())-month(t1.birthday) month
from
  (
    select
      name,
      replace(birthday,'/','-') birthday
    from
      employee
)t1 t2

 -- 根据月份正负决定年龄

 

select
  name,
  concat(if(month>=0,year,year-1),'年',if(month>=0,month,12+month),'月') age
from
  (
    select
      name,
      year(current_date())-year(t1.birthday) year,
      month(current_date())-month(t1.birthday) month
    from
      (
        select
          name,
          replace(birthday,'/','-') birthday
        from
          employee
    )t1
)t2

3)按照薪资,奖金的和进行倒序排序,如果奖金为null,置位0

(1)期望结果

name

sal

周芷若

19000

宋青书

19000

郭靖

15000

张无忌

15000

黄蓉

12000

赵敏

11000

小龙女

6000

杨过

5000

(2)需求实现

select
  name,
  salary + nvl(bonus,0) sal
from
  employee
order by
   sal desc

4)查询每个人有多少个朋友

(1)期望结果

name

cnt

张无忌

2

赵敏

2

宋青书

2

周芷若

2

郭靖

2

黄蓉

2

杨过

2

小龙女

2

(2)需求实现

select
    name,
    size(friends) cnt
from
    employee;

5)查询每个人的孩子的姓名

(1)期望结果

name

ch_name

张无忌

["张小无","张小忌"]

赵敏

["赵小敏"]

宋青书

["宋小青","宋小书"]

周芷若

["宋小青","宋小书"]

郭靖

["郭芙","郭襄"]

黄蓉

["郭芙","郭襄"]

杨过

["杨小过"]

小龙女

["杨小过"]

(2)需求实现

hive>

select
    name,
    map_keys(children) ch_name
from
    employee;

6)查询每个岗位男女各多少人

(1)期望结果

job

male

female

前台

1

1

研发

1

1

行政

0

2

销售

2

0

(2)需求实现

select
  job,
  sum(if(sex='男',1,0)) male,
  sum(if(sex='女',1,0)) female
from
  employee
group by job

6.3 高级聚合函数

多进一出 (多行传入,一个行输出)。

1)普通聚合 count/sum....

2)collect_list 收集并形成list集合,结果不去重

hive>

select
  sex,
  collect_list(job)
from
  employee
group by sex

结果:

女        ["行政","研发","行政","前台"]

男        ["销售","研发","销售","前台"]

3)collect_set 收集并形成set集合,结果去重

hive>

select
  sex,
  collect_set(job)
from
  employee
group by sex

结果:

女        ["行政","研发","前台"]

男        ["销售","研发","前台"]

6.3.1 案例演示

1)每个月的入职人数以及姓名

hive>

select
  month(replace(hiredate,'/','-')) as month,
  count(*) as cn,
  Collect_list(name) as name_list
from
  employee
group by
  month(replace(hiredate,'/','-'))

结果:

month  cn  name_list

4            2        ["宋青书","周芷若"]

6            1        ["黄蓉"]

7            1        ["郭靖"]

8            2        ["张无忌","杨过"]

9            2        ["赵敏","小龙女"]

6.4 炸裂函数

6.4.1 概述

 

 

 

 

 

 

6.4.2 案例演示

1.数据准备

1)表结构

movie

category

《疑犯追踪》

悬疑,动作,科幻,剧情

《Lie to me》

悬疑,警匪,动作,心理,剧情

《战狼2》

战争,动作,灾难

2)建表语句

hive (default)>

create table movie_info(
    movie string,     --电影名称
    category string   --电影分类
)
row format delimited fields terminated by "\t";

3)装载语句

insert overwrite table movie_info
values ("《疑犯追踪》", "悬疑,动作,科幻,剧情"),
       ("《Lie to me》", "悬疑,警匪,动作,心理,剧情"),
       ("《战狼2》", "战争,动作,灾难");

2. 需求

1)需求说明

根据上述电影信息表,统计各分类的电影数量,期望结果如下:

剧情

2

动作

3

心理

1

悬疑

2

战争

1

灾难

1

科幻

1

警匪

1

2)答案

select
    cate,
    count(*)
from
(
    select
        movie,
        cate
    from
    (
        select
            movie,
            split(category,',') cates
        from movie_info
    )t1 lateral view explode(cates) tmp as cate
)t2
group by cate;

6.5 窗口函数(开窗函数)

6.5.1 概述 

 

 

 

 

 基于行关键字:rows

 意义:总的历史订单金额

 基于值关键字:range

意义:截止到某日的订单总额。 ​​​​​​​

思考:

基于值的窗口函数,order by 语句是否有意义?

在基于行的窗口函数中,order by 可以指定数据的顺序,只有排完序行固定下来后基于行去统计数据才有意义,而基于值的窗口函数本身就是按值去统计,所以排序是没有意义的,但是这里为什么还有order by 语句,原因是order by 在这里不是表达排序的含义,而是指定基于哪一个字段的值去划分窗口统计

 

意义:截止到某个订单(注意基于行,所以表示截止到某个订单,如果是基于值,表示到某日),某个用户的订单总额。

​​​​​​​

6.5.2 常用窗口函数

按照功能,常用窗口可划分为如下几类:聚合函数、跨行取值函数、排名函数。

1)聚合函数

max:最大值。

min:最小值。

sum:求和。

avg:平均值。

count:计数。

2)跨行取值函数

(1)lead和lag

注:lag和lead函数不支持自定义窗口。lag表示取上面第几行,lead 表示取下面第几行,怎么取理解lag lead,就看当前行使处于什么位置,比如lag 1,表示当前行是处于lag位置(落后了要取的值的1行)所以取的是当前行的上一行,而lead 1,表示当前行处于lead位置(领先了要取的值的1行)所以取的是下一行数据。

(2)first_value和last_value

第二个参数(true/false),表示是否跳过null值。

3)排名函数 

 注:rank 、dense_rank、row_number不支持自定义窗口。

三者的区别:

rank,可以理解为稀疏排名,考虑并列,比如有两个第一名,那么排名为 1,1,3

dense_rank,可以理解为密集排名,不考虑并列,比如与两个第一名,那么排名顺序为 1,1,2

row_number,可以理解为按行排个序号,即使有两个第一名,排名也是按行1,2,3排名

6.5.3 案例演示

1.数据准备

1)表结构

order_id

user_id

user_name

order_date

order_amount

1

1001

小元

2022-01-01

10

2

1002

小海

2022-01-02

15

3

1001

小元

2022-02-03

23

4

1002

小海

2022-01-04

29

5

1001

小元

2022-01-05

46

2)建表语句

create table order_info
(
    order_id     string, --订单id
    user_id      string, -- 用户id
    user_name    string, -- 用户姓名
    order_date   string, -- 下单日期
    order_amount int     -- 订单金额
);

3)装载语句

insert overwrite table order_info
values ('1', '1001', '小元', '2022-01-01', '10'),
       ('2', '1002', '小海', '2022-01-02', '15'),
       ('3', '1001', '小元', '2022-02-03', '23'),
       ('4', '1002', '小海', '2022-01-04', '29'),
       ('5', '1001', '小元', '2022-01-05', '46'),
       ('6', '1001', '小元', '2022-04-06', '42'),
       ('7', '1002', '小海', '2022-01-07', '50'),
       ('8', '1001', '小元', '2022-01-08', '50'),
       ('9', '1003', '小辉', '2022-04-08', '62'),
       ('10', '1003', '小辉', '2022-04-09', '62'),
       ('11', '1004', '小猛', '2022-05-10', '12'),
       ('12', '1003', '小辉', '2022-04-11', '75'),
       ('13', '1004', '小猛', '2022-06-12', '80'),
       ('14', '1003', '小辉', '2022-04-13', '94');

2. 需求

1)统计每个用户截至每次下单的累积下单总额

(1)期望结果

order_id

user_id

user_name

order_date

order_amount

sum_so_far

1

1001

小元

2022-01-01

10

10

5

1001

小元

2022-01-05

46

56

8

1001

小元

2022-01-08

50

106

3

1001

小元

2022-02-03

23

129

6

1001

小元

2022-04-06

42

171

2

1002

小海

2022-01-02

15

15

4

1002

小海

2022-01-04

29

44

7

1002

小海

2022-01-07

50

94

9

1003

小辉

2022-04-08

62

62

10

1003

小辉

2022-04-09

62

124

12

1003

小辉

2022-04-11

75

199

14

1003

小辉

2022-04-13

94

293

11

1004

小猛

2022-05-10

12

12

13

1004

小猛

2022-06-12

80

92

(2)需求实现

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    sum(order_amount) over(partition by user_id order by order_date rows between unbounded preceding and current row) sum_so_far
from order_info;

2)统计每个用户截至每次下单的当月累积下单总额

(1)期望结果

order_id

user_id

user_name

order_date

order_amount

sum_so_far

1

1001

小元

2022-01-01

10

10

5

1001

小元

2022-01-05

46

56

8

1001

小元

2022-01-08

50

106

3

1001

小元

2022-02-03

23

23

6

1001

小元

2022-04-06

42

42

2

1002

小海

2022-01-02

15

15

4

1002

小海

2022-01-04

29

44

7

1002

小海

2022-01-07

50

94

9

1003

小辉

2022-04-08

62

62

10

1003

小辉

2022-04-09

62

124

12

1003

小辉

2022-04-11

75

199

14

1003

小辉

2022-04-13

94

293

11

1004

小猛

2022-05-10

12

12

13

1004

小猛

2022-06-12

80

80

(2)需求实现

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    sum(order_amount) over(partition by user_id,substring(order_date,1,7) order by order_date rows between unbounded preceding and current row) sum_so_far
from order_info;

3)统计每个用户每次下单距离上次下单相隔的天数(首次下单按0天算)

(1)期望结果

order_id

user_id

user_name

order_date

order_amount

diff

1

1001

小元

2022-01-01

10

0

5

1001

小元

2022-01-05

46

4

8

1001

小元

2022-01-08

50

3

3

1001

小元

2022-02-03

23

26

6

1001

小元

2022-04-06

42

62

2

1002

小海

2022-01-02

15

0

4

1002

小海

2022-01-04

29

2

7

1002

小海

2022-01-07

50

3

9

1003

小辉

2022-04-08

62

0

10

1003

小辉

2022-04-09

62

1

12

1003

小辉

2022-04-11

75

2

14

1003

小辉

2022-04-13

94

2

11

1004

小猛

2022-05-10

12

0

13

1004

小猛

2022-06-12

80

33

(2)需求实现

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    nvl(datediff(order_date,last_order_date),0) diff
from
(
    select
        order_id,
        user_id,
        user_name,
        order_date,
        order_amount,
        lag(order_date,1,null) over(partition by user_id order by order_date) last_order_date
    from order_info
)t1

4)查询所有下单记录以及每个用户的每个下单记录所在月份的首/末次下单日期

(1)期望结果

order_id

user_id

user_name

order_date

order_amount

first_date

last_date

1

1001

小元

2022-01-01

10

2022-01-01

2022-01-08

5

1001

小元

2022-01-05

46

2022-01-01

2022-01-08

8

1001

小元

2022-01-08

50

2022-01-01

2022-01-08

3

1001

小元

2022-02-03

23

2022-02-03

2022-02-03

6

1001

小元

2022-04-06

42

2022-04-06

2022-04-06

2

1002

小海

2022-01-02

15

2022-01-02

2022-01-07

4

1002

小海

2022-01-04

29

2022-01-02

2022-01-07

7

1002

小海

2022-01-07

50

2022-01-02

2022-01-07

9

1003

小辉

2022-04-08

62

2022-04-08

2022-04-13

10

1003

小辉

2022-04-09

62

2022-04-08

2022-04-13

12

1003

小辉

2022-04-11

75

2022-04-08

2022-04-13

14

1003

小辉

2022-04-13

94

2022-04-08

2022-04-13

11

1004

小猛

2022-05-10

12

2022-05-10

2022-05-10

13

1004

小猛

2022-06-12

80

2022-06-12

2022-06-12

(2)需求实现

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    first_value(order_date) over(partition by user_id,substring(order_date,1,7) order by order_date) first_date,
    last_value(order_date) over(partition by user_id,substring(order_date,1,7) order by order_date rows between unbounded preceding and unbounded following) last_date
from order_info;

5)为每个用户的所有下单记录按照订单金额进行排名

(1)期望结果

order_id

user_id

user_name

order_date

order_amount

rk

drk

rn

8

1001

小元

2022-01-08

50

1

1

1

5

1001

小元

2022-01-05

46

2

2

2

6

1001

小元

2022-04-06

42

3

3

3

3

1001

小元

2022-02-03

23

4

4

4

1

1001

小元

2022-01-01

10

5

5

5

7

1002

小海

2022-01-07

50

1

1

1

4

1002

小海

2022-01-04

29

2

2

2

2

1002

小海

2022-01-02

15

3

3

3

14

1003

小辉

2022-04-13

94

1

1

1

12

1003

小辉

2022-04-11

75

2

2

2

9

1003

小辉

2022-04-08

62

3

3

3

10

1003

小辉

2022-04-09

62

3

3

4

13

1004

小猛

2022-06-12

80

1

1

1

11

1004

小猛

2022-05-10

12

2

2

2

(2)需求实现

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    rank() over(partition by user_id order by order_amount desc) rk,
    dense_rank() over(partition by user_id order by order_amount desc) drk,
    row_number() over(partition by user_id order by order_amount desc) rn
from order_info;

6.6 自定义函数

1)Hive自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。

2)当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。

3)根据用户自定义函数类别分为以下三种:

(1)UDF(User-Defined-Function)

        一进一出。

(2)UDAF(User-Defined Aggregation Function)

        用户自定义聚合函数,多进一出。

        类似于:count/max/min

(3)UDTF(User-Defined Table-Generating Functions)

        用户自定义表生成函数,一进多出。

        如lateral view explode()

4)官方文档地址

HivePlugins - Apache Hive - Apache Software Foundation

5)编程步骤

(1)继承Hive提供的类

        org.apache.hadoop.hive.ql.udf.generic.GenericUDF

        org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;

(2)实现类中的抽象方法

(3)在hive的命令行窗口创建函数

        添加jar。

                add jar linux_jar_path

        创建function。

                create [temporary] function [dbname.]function_name AS class_name;

(4)在hive的命令行窗口删除函数

        drop [temporary] function [if exists] [dbname.]function_name;

6.7 自定义UDF函数

0)需求

自定义一个UDF实现计算给定基本数据类型的长度,例如:

hive(default)> select my_len("abcd");

4

1)创建一个Maven工程Hive

2)导入依赖

<dependencies>
    <dependency>
                <groupId>org.apache.hive</groupId>
                <artifactId>hive-exec</artifactId>
                <version>3.1.3</version>
        </dependency>
</dependencies>

3)创建一个类

package com.seven.hive.udf;
 

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;

 
/**
 * 我们需计算一个要给定基本数据类型的长度
 */
public class MyUDF extends GenericUDF {
    /**
     * 判断传进来的参数的类型和长度
     * 约定返回的数据类型
     */
    @Override
    public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException {
        if (arguments.length !=1) {
            throw  new UDFArgumentLengthException("please give me  only one arg");
        }

        if (!arguments[0].getCategory().equals(ObjectInspector.Category.PRIMITIVE)){
            throw  new UDFArgumentTypeException(1, "i need primitive type arg");
        }

        return PrimitiveObjectInspectorFactory.javaIntObjectInspector;

    } 

    /**
     * 解决具体逻辑的
     */
    @Override
    public Object evaluate(DeferredObject[] arguments) throws HiveException {
        Object o = arguments[0].get();
        if(o==null){
            return 0;
        }

        return o.toString().length();

    }
 

    @Override
    // 用于获取解释的字符串
    public String getDisplayString(String[] children) {
        return "";
    }

}

ObjectInspector,要理解这个类,需要对Hive的执行过程有一定的理解,hiveSQL语句会被解析成一个个的MR任务,首先是Map任务会生成operator tree,一个operator代表一个特定的操作,比如Table ScanFilterSelect等算子,在MAP端会有一个由多个Operator 组成的Operator Tree,在Reduce任务端也同样有一棵这样的Operator Tree。这些Operator之间不是相互独立,而是有依赖关系的,这样由一连串的Operator就组成了Hive完整的执行逻辑。在这个背景之下,Hive处理的数据就会经过一系列的Operator的处理,数据会在多个Operator之间依次进行传递。数据在Hive Operator之间的传递过程中,数据和元数据信息是分开传递的,真实的数据比如一个字符串,一个数字等,元数据信息包括数据类型,比如intbigint等,如果是复杂数据类型,比如是一个struct结构体,那么结构体中有多少个字段,每个字段的类型等元数据信息。数据在Hive源码中传递是以Object的形式传递,而数据的元数据信息就封装到了ObjectInspector

4)创建临时函数

(1)打成jar包上传到服务器/opt/module/hive/datas/myudf.jar

(2)将jar包添加到hive的classpath,临时生效

hive (default)> add jar /opt/module/hive/datas/myudf.jar;

(3)创建临时函数与开发好的java class关联

hive (default)>

create temporary function my_len as "com.seven.hive.udf.MyUDF";

(4)即可在hql中使用自定义的临时函数

hive (default)>

select
    ename,
    my_len(ename) ename_len
from emp;

(5)删除临时函数

hive (default)> drop temporary function my_len;

        注意:临时函数只跟会话有关系,跟库没有关系。只要创建临时函数的会话不断,在当前会话下,任意一个库都可以使用,其他会话全都不能使用。

5)创建永久函数

(1)创建永久函数

注意:因为add jar本身也是临时生效,所以在创建永久函数的时候,需要制定路径(并且因为元数据的原因,这个路径还得是HDFS上的路径)。

hive (default)>

create function my_len2 as "com.seven.hive.udf.MyUDF" using jar "hdfs://hadoop102:8020/udf/myudf.jar";

(2)即可在hql中使用自定义的永久函数

hive (default)>

select
    ename,
    my_len2(ename) ename_len
from emp;

(3)删除永久函数

hive (default)> drop function my_len2;

注意:永久函数跟会话没有关系,创建函数的会话断了以后,其他会话也可以使用。

永久函数创建的时候,在函数名之前需要自己加上库名,如果不指定库名的话,会默认把当前库的库名给加上。

永久函数使用的时候,需要在指定的库里面操作,或者在其他库里面使用的话加上,库名.函数名。

6.8 常用函数大全

[Hive]二、常用函数大全-CSDN博客

7. 分区表和分桶表

7.1 分区表

Hive中的分区就是把一张大表的数据按照业务需要分散的存储到多个目录,每个目录就称为该表的一个分区。在查询时通过where子句中的表达式选择查询所需要的分区,这样的查询效率会提高很多。

7.1.1 分区表基本语法

1. 创建分区表

hive (default)>

create table dept_partition
(
    deptno int,    --部门编号
    dname  string, --部门名称
    loc    string  --部门位置
)
    partitioned by (day string)
    row format delimited fields terminated by '\t';

2. 分区表读写数据

1)写数据

1load

1数据准备

在/opt/module/hive/datas/路径上创建文件dept_20220401.log,并输入如下内容。

[seven@hadoop102 datas]$ vim dept_20220401.log

 

10        行政部        1700

20        财务部        1800

2装载语句

hive (default)>

load data local inpath '/opt/module/hive/datas/dept_20220401.log'

into table dept_partition

partition(day='20220401');

2insert

day='20220401'分区的数据插入到day='20220402'分区,可执行如下装载语句

hive (default)>

insert overwrite table dept_partition partition (day = '20220402')

select deptno, dname, loc

from dept_partition

where day = '2020-04-01';

2)读数据

查询分区表数据时,可以将分区字段看作表的伪列,可像使用其他字段一样使用分区字段。

select deptno, dname, loc ,day

from dept_partition

where day = '2020-04-01';

3. 分区表基本操作

1)查看所有分区信息

hive> show partitions dept_partition;

2)增加分区

1)创建单个分区

hive (default)>

alter table dept_partition

add partition(day='20220403');

2)同时创建多个分区(分区之间不能有逗号)

hive (default)>

alter table dept_partition

add partition(day='20220404') partition(day='20220405'); --  注意add 多个分区时,这里没有逗号, 隔开

注意:分区信息也属于Hive元数据信息中的一部分,在Metastore(存放在MySQL)中可以看到分区的元数据信息,查看MySQL中的表(PARTITIONS表)。

3)删除分区

1)删除单个分区

hive (default)>

alter table dept_partition

drop partition (day='20220403');

2)同时删除多个分区(分区之间必须有逗号)

hive (default)>

alter table dept_partition

drop partition (day='20220404'), partition(day='20220405'); 注意这里删除多个分区时,有逗号, 隔开

4)修复分区

Hive将分区表的所有分区信息都保存在了元数据中,只有元数据与HDFS上的分区路径一致时,分区表才能正常读写数据。若用户手动创建/删除分区路径,Hive都是感知不到的,这样就会导致Hive的元数据和HDFS的分区路径不一致。再比如,若分区表为外部表,用户执行drop partition命令后,分区元数据会被删除,而HDFS的分区路径不会被删除,同样会导致Hive的元数据和HDFS的分区路径不一致。

若出现元数据和HDFS路径不一致的情况,可通过如下几种手段进行修复。

1add partition

若手动创建HDFS的分区路径,Hive无法识别,可通过add partition命令增加分区元数据信息,从而使元数据和分区路径保持一致。

2drop partition

若手动删除HDFS的分区路径,Hive无法识别,可通过drop partition命令删除分区元数据信息,从而使元数据和分区路径保持一致。

3msck

若分区元数据和HDFS的分区路径不一致,还可使用msck命令进行修复,以下是该命令的用法说明。

hive (default)>

msck repair table table_name [add/drop/sync partitions];

说明:

msck repair table table_name add partitions:该命令会增加HDFS路径存在但元数据缺失的分区信息。

msck repair table table_name drop partitions:该命令会删除HDFS路径已经删除但元数据仍然存在的分区信息。

msck repair table table_name sync partitions:该命令会同步HDFS路径和元数据分区信息,相当于同时执行上述的两个命令。

msck repair table table_name:等价于msck repair table table_name add partitions命令。

7.1.2 二级分区表

思考:如果一天内的日志数据量也很大,如何再将数据拆分?答案是二级分区表,例如可以在按天分区的基础上,再对每天的数据按小时进行分区。

1)二级分区表建表语句

hive (default)>

create table dept_partition2(
    deptno int,    -- 部门编号
    dname string, -- 部门名称
    loc string     -- 部门位置
)
partitioned by (day string, hour string)
row format delimited fields terminated by '\t';

2)数据装载语句

hive (default)>

load data local inpath '/opt/module/hive/datas/dept_20220401.log'

into table dept_partition2

partition(day='20220401', hour='12');

3)查询分区数据

hive (default)>

select

    *

from dept_partition2

where day='20220401' and hour='12';

7.1.3 动态分区

动态分区是指向分区表insert数据时,被写往的分区不由用户指定,而是由每行数据的最后一个字段的值来动态的决定。使用动态分区,可只用一个insert语句将数据写入多个分区。

​​​​​​​注意:动态分区字段,并不是真实表中的字段,而是虚拟字段,但是可以通过select语句查询。

1)动态分区相关参数

(1)动态分区功能总开关(默认true,开启)

set hive.exec.dynamic.partition=true

(2)严格模式和非严格模式

动态分区的模式,默认strict(严格模式),要求必须指定至少一个分区为静态分区,nonstrict(非严格模式)允许所有的分区字段都使用动态分区。

set hive.exec.dynamic.partition.mode=nonstrict

(3)一条insert语句可同时创建的最大的分区个数,默认为1000。

set hive.exec.max.dynamic.partitions=1000

(4)单个Mapper或者Reducer可同时创建的最大的分区个数,默认为100。

set hive.exec.max.dynamic.partitions.pernode=100

(5)一条insert语句可以创建的最大的文件个数,默认100000。

hive.exec.max.created.files=100000

(6)当查询结果为空时且进行动态分区时,是否抛出异常,默认false。

hive.error.on.empty.partition=false

2)案例实操

需求:将dept表中的数据按照地区(loc字段),插入到目标表dept_partition_dynamic的相应分区中。

(1)创建目标分区表

hive (default)>

create table dept_partition_dynamic(

    id int,

    name string

)

partitioned by (loc int)

row format delimited fields terminated by '\t';

(2)设置动态分区

set hive.exec.dynamic.partition.mode = nonstrict;

hive (default)>

insert into table dept_partition_dynamic

partition(loc)

select

    deptno,

    dname,

    loc

from dept;

(3)查看目标分区表的分区情况

hive (default)> show partitions dept_partition_dynamic;

7.2 分桶表

分区提供一个隔离数据和优化查询的便利方式。不过,并非所有的数据集都可形成合理的分区。对于一张表或者分区,Hive 可以进一步组织成桶,也就是更为细粒度的数据范围划分,分区针对的是数据的存储路径,分桶针对的是数据文件。

分桶表的基本原理是,首先为每行数据计算一个指定字段的数据的hash值,然后模以一个指定的分桶数,最后将取模运算结果相同的行,写入同一个文件中,这个文件就称为一个分桶(bucket)。

一个表可以既是分区表,又是分桶表,此时会对每一个分区的数据进行分桶

什么时候会用到分桶表?join优化可能会用到分桶表,只有分桶表才能使用bucket map join sort merge bucket map join

7.2.1 分桶表基本语法

1)建表语句

hive (default)>

create table stu_buck(

    id int,

    name string

)

clustered by(id)

into 4 buckets

row format delimited fields terminated by '\t';

2)数据装载

(1)数据准备

在/opt/module/hive/datas/路径上创建student.txt文件,并输入如下内容。

1001        student1

1002        student2

1003        student3

1004        student4

1005        student5

1006        student6

1007        student7

1008        student8

1009        student9

1010        student10

1011        student11

1012        student12

1013        student13

1014        student14

1015        student15

1016        student16

(2)导入数据到分桶表中

说明:Hive新版本load数据可以直接跑MapReduce,老版的Hive需要将数据传到一张表里,再通过查询的方式导入到分桶表里面。

hive (default)>

load data local inpath '/opt/module/hive/datas/student.txt'

into table stu_buck;

(3)查看创建的分桶表中是否分成4个桶

 (4)观察每个分桶中的数据

7.2.2 分桶排序表

1)建表语句

hive (default)>

create table stu_buck_sort(

    id int,

    name string

)

clustered by(id) sorted by(id)

into 4 buckets

row format delimited fields terminated by '\t';

2)数据装载

(1)导入数据到分桶表中

hive (default)>

load data local inpath '/opt/module/hive/datas/student.txt'

into table stu_buck_sort;

(2)查看创建的分桶表中是否分成4个桶

 (3)观察每个分桶中的数据

8. 文件格式和压缩

8.1 Hadoop压缩概述

压缩格式

算法

文件扩展名

是否可切分

DEFLATE

DEFLATE

.deflate

Gzip

DEFLATE

.gz

bzip2

bzip2

.bz2

LZO

LZO

.lzo

Snappy

Snappy

.snappy

为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器,如下表所示:

Hadoop查看支持压缩的方式hadoop checknative。

Hadoop在driver端设置压缩。

压缩格式

对应的编码/解码器

DEFLATE

org.apache.hadoop.io.compress.DefaultCodec

gzip

org.apache.hadoop.io.compress.GzipCodec

bzip2

org.apache.hadoop.io.compress.BZip2Codec

LZO

com.hadoop.compression.lzo.LzopCodec

Snappy

org.apache.hadoop.io.compress.SnappyCodec

压缩性能的比较:

压缩算法

原始文件大小

压缩文件大小

压缩速度

解压速度

gzip

8.3GB

1.8GB

17.5MB/s

58MB/s

bzip2

8.3GB

1.1GB

2.4MB/s

9.5MB/s

LZO

8.3GB

2.9GB

49.3MB/s

74.6MB/s

snappy | A fast compressor/decompressor

On a single core of a Core i7 processor in 64-bit mode, Snappy compresses at about 250 MB/sec or more and decompresses at about 500 MB/sec or more.

8.2 Hive文件格式

为Hive表中的数据选择一个合适的文件格式,对提高查询性能的提高是十分有益的。Hive表数据的存储格式,可以选择text file、orc、parquet、sequence file等。

8.2.1 Text File

文本文件是Hive默认使用的文件格式,文本文件中的一行内容,就对应Hive表中的一行记录。

可通过以下建表语句指定文件格式为文本文件:

create table textfile_table

(column_specs)

stored as textfile;

8.2.2 ORC

1)文件格式

ORCOptimized Row Columnarfile formatHive 0.11版里引入的一种列式存储的文件格式。ORC文件能够提高Hive读写数据和处理数据的性能。

与列式存储相对的是行式存储,下图是两者的对比:

 

如图所示左边为逻辑表,右边第一个为行式存储,第二个为列式存储。

1)行存储的特点

查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快。

2)列存储的特点

因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式存储可以针对性的设计更好的设计压缩算法。

前文提到的text file和sequence file都是基于行存储的,orc和parquet是基于列式存储的。

orc文件的具体结构如下图所示: 

 每个Orc文件由Header、Body和Tail三部分组成。

其中Header内容为ORC,用于表示文件类型。

Body由1个或多个stripe组成,每个stripe一般为HDFS的块大小,每一个stripe包含多条记录,这些记录按照列进行独立存储,每个stripe里有三部分组成,分别是Index Data,Row Data,Stripe Footer。

Index Data一个轻量级的index,默认是为各列每隔1W行做一个索引。每个索引会记录第n万行的位置,和最近一万行的最大值和最小值等信息。

Row Data存的是具体的数据,按列进行存储,并对每个列进行编码,分成多个Stream来存储

Stripe Footer存放的是各个Stream的位置以及各column的编码信息。

Tail由File Footer和PostScript组成。File Footer中保存了各Stripe的其实位置、索引长度、数据长度等信息,各Column的统计信息等;PostScript记录了整个文件的压缩类型以及File Footer的长度信息等。

Header:ORC 即magic code ,用于标识文件格式,

Footer中的统计信息是整张表的统计信息,与每个stripe中的信息有所区别。

Postscript:后记信息,常用于补充说明文档内存,里面存储了File Footer的长度信息、文件的压缩参数(orc支持压缩),文件版本信息。

最后一个字节用于保存Postscript的长度信息。

在读取ORC文件时,会先从最后一个字节读取PostScript长度,进而读取到PostScript,从里面解析到File Footer长度,进而读取FileFooter,从中解析到各个Stripe信息,再读各个Stripe,即从后往前读。

3)建表语句

create table orc_table

(column_specs)

stored as orc

tblproperties (property_name=property_value, ...);

ORC文件格式支持的参数如下:

参数

默认值

说明

orc.compress

ZLIB

压缩格式,可选项:NONE、ZLIB,、SNAPPY

orc.compress.size

262,144

每个压缩块的大小(ORC文件是分块压缩的)

orc.stripe.size

67,108,864

每个stripe的大小

orc.row.index.stride

10,000

索引步长(每隔多少行数据建一条索引)

 SNAPPY 压缩不支持切片,这是否对文件的处理有影响,orc格式的文件在压缩的时候,不是将一整个大的文件进行压缩,而是分块进行压缩的,块大小由 orc.compress.size控制,默认大小为256MB,所以如果orc格式的文件采用snappy压缩,底层实际上也是按照256MB大小的数据块进行压缩,在数据处理的时候,可以拿这一整块经过snappy压缩后的数据给MR处理,所以在使用orc格式存储的数据在处理时不需要考虑切片问题。

一般orc.stripe.size的大小应该设置为hdfs的block size大小,即默认是128MB,早期的HDFS块大小才是64MB。

如果一个表存储格式采用的是orc格式,那么通过load的方式将文本文件load到该表的路径下是不能解析成功的,可以通过insert.. select 的方式从TextFile存储格式的表中选出数据再insert到orc表中。这里需要建一张临时表,将文本格式的文件load到临时表,insert+select的方式会走计算,因此可以用orc格式存储。

8.2.3 Parquet

Parquet文件是Hadoop生态中的一个通用的文件格式,它也是一个列式存储的文件格式。

Parquet文件的格式如下图所示:

 

Row Group(行组) -> Column Chunk(列块) ->Page(分页)一个分页作为一小块单位,用于后续的压缩和编码

Footer(文件末尾)-> 存储元数据信息 File Meta Data:元数据的组织结构和数据组织结构一一对应,也是分行组和列块进行存储。

元数据信息包括:该列数据类型,该列的编码方式,data page位置,统计信息(最大值,最小值,null的个数等)

 

上图展示了一个Parquet文件的基本结构,文件的首尾都是该文件的Magic Code,用于校验它是否是一个Parquet文件。

首尾中间由若干个Row Group和一个Footer(File Meta Data)组成。

每个Row Group包含多个Column Chunk,每个Column Chunk包含多个Page。以下是Row Group、Column Chunk和Page三个概念的说明:

行组(Row Group):一个行组对应逻辑表中的若干行。

列块(Column Chunk):一个行组中的一列保存在一个列块中。

页(Page):一个列块的数据会划分为若干个页。

Footer(File Meta Data)中存储了每个行组(Row Group)中的每个列快(Column Chunk)的元数据信息,元数据信息包含了该列的数据类型、该列的编码方式、该类的Data Page位置等信息。

在文件的开头和末尾分别用4字节去存储PAR1 ,表示parquet的版本,通常将文件中用来标识文件类型的开头或结尾的信息叫作magic code。

注:

3)建表语句

Create table parquet_table

(column_specs)

stored as parquet

tblproperties (property_name=property_value, ...);

支持的参数如下:

参数

默认值

说明

parquet.compression

uncompressed

压缩格式,可选项:uncompressed,snappy,gzip,lzo,brotli,lz4

parquet.block.size

134217728 

行组大小,通常与HDFS块大小保持一致

parquet.page.size

1048576

页大小

        parquet.page.size 可以认为的控制,和orc格式一样,如果采用snappy压缩,不支持切片,在用MapReduce处理过程中也不用担心,因为底层多数据的压缩和编码是以page为单位的,若不是以一整个文件进行压缩编码。

8.3 压缩

在Hive表中和计算过程中,保持数据的压缩,对磁盘空间的有效利用和提高查询性能都是十分有益的。提高查询性能的点主要在于减少磁盘IO,减少网络传输

8.2.1 Hive表数据进行压缩

在Hive中,不同文件类型的表,声明数据压缩的方式是不同的。

1TextFile

若一张表的文件类型为TextFile,若需要对该表中的数据进行压缩,多数情况下,无需在建表语句做出声明。直接将压缩后的文件导入到该表即可,Hive在查询表中数据时,可自动识别其压缩格式,进行解压。

需要注意的是,在执行往表中导入数据的SQL语句时,用户需设置以下参数,来保证写入表中的数据是被压缩的。

--SQL语句的最终输出结果是否压缩

set hive.exec.compress.output=true;

--输出结果的压缩格式(以下示例为snappy)

set mapreduce.output.fileoutputformat.compress.codec =org.apache.hadoop.io.compress.SnappyCodec;

2ORC

若一张表的文件类型为ORC,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

create table orc_table

(column_specs)

stored as orc

tblproperties ("orc.compress"="snappy");

3Parquet

若一张表的文件类型为Parquet,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

create table orc_table

(column_specs)

stored as parquet

tblproperties ("parquet.compression"="snappy");

8.2.2 计算过程中使用压缩

1)单个MR的中间结果进行压缩

单个MR的中间结果是指Mapper输出的数据,对其进行压缩可降低shuffle阶段的网络IO,可通过以下参数进行配置:

--开启MapReduce中间数据压缩功能

set mapreduce.map.output.compress=true;

--设置MapReduce中间数据数据的压缩方式(以下示例为snappy)

set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

2)单条SQL语句的中间结果进行压缩

单条SQL语句的中间结果是指,两个MR(一条SQL语句可能需要通过MR进行计算)之间的临时数据,可通过以下参数进行配置:

--是否对两个MR之间的临时数据进行压缩

set hive.exec.compress.intermediate=true;

--压缩格式(以下示例为snappy)

set hive.intermediate.compression.codec= org.apache.hadoop.io.compress.SnappyCodec;

9. 调优

9.1 计算资源配置

本教程的计算环境为Hive on MR。计算资源的调整主要包括Yarn和MR。

9.1.1 Yarn资源配置

1)Yarn配置说明: yarn-site.xml

需要调整的Yarn参数均与CPU、内存等资源有关,核心配置参数如下

(1)yarn.nodemanager.resource.memory-mb

        该参数的含义是,一个NodeManager节点分配给Container使用的内存。该参数的配置,取决于NodeManager所在节点的总内存容量和该节点运行的其他服务的数量。考虑上述因素,此处可将该参数设置为64G,如下:

<property>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>65536</value>
</property>

(2)yarn.nodemanager.resource.cpu-vcores

        该参数的含义是,一个NodeManager节点分配给Container使用的CPU核数。该参数的配置,同样取决于NodeManager所在节点的总CPU核数和该节点运行的其他服务。

考虑上述因素,此处可将该参数设置为16。

<property>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>16</value>
</property>

(3)yarn.scheduler.maximum-allocation-mb

        该参数的含义是,单个Container能够使用的最大内存。配置如下(16GB):

<property>
    <name>yarn.scheduler.maximum-allocation-mb</name>
    <value>16384</value>
</property>

(4)yarn.scheduler.minimum-allocation-mb

        该参数的含义是,单个Container能够使用的最小内存,推荐配置如下:

<property>
    <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>512</value>
</property>

2)Yarn配置实操

(1)修改$HADOOP_HOME/etc/hadoop/yarn-site.xml文件

(2)修改如下参数

<property>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>65536</value>
</property>

<property>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>16</value>
</property>

<property>
    <name>yarn.scheduler.maximum-allocation-mb</name>
    <value>16384</value>
</property>

<property>
    <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>512</value>
</property>

(3)分发该配置文件

(4)重启Yarn。

9.1.2 MapReduce资源配置

        MapReduce资源配置主要包括Map Task的内存和CPU核数,以及Reduce Task的内存和CPU核数。核心配置参数如下:

1)mapreduce.map.memory.mb        

        该参数的含义是,单个Map Task申请的container容器内存大小,其默认值为1024。该值不能超出yarn.scheduler.maximum-allocation-mb和yarn.scheduler.minimum-allocation-mb规定的范围。

        该参数需要根据不同的计算任务单独进行配置,在hive中,可直接使用如下方式为每个SQL语句单独进行配置:

set  mapreduce.map.memory.mb=2048;

2)mapreduce.map.cpu.vcores        

        该参数的含义是,单个Map Task申请的container容器cpu核数,其默认值为1。该值一般无需调整。

3)mapreduce.reduce.memory.mb        

        该参数的含义是,单个Reduce Task申请的container容器内存大小,其默认值为1024。该值同样不能超出yarn.scheduler.maximum-allocation-mb和yarn.scheduler.minimum-allocation-mb规定的范围。

        该参数需要根据不同的计算任务单独进行配置,在hive中,可直接使用如下方式为每个SQL语句单独进行配置:

set  mapreduce.reduce.memory.mb=2048;

4)mapreduce.reduce.cpu.vcores        

        该参数的含义是,单个Reduce Task申请的container容器cpu核数,其默认值为1。该值一般无需调整。

9.2 测试用表

9.2.1 订单表(2000w条数据)

1)表结构

id

(订单id)

user_id

(用户id)

product_id

(商品id)

province_id

(省份id)

create_time

(下单时间)

product_num

(商品id)

total_amount

(订单金额)

10000001

125442354

15003199

1

2020-06-14 03:54:29

3

100.58

10000002

192758405

17210367

1

2020-06-14 01:19:47

8

677.18

2)建表语句

hive (default)>

drop table if exists order_detail;
create table order_detail(
    id           string comment '订单id',
    user_id      string comment '用户id',
    product_id   string comment '商品id',
    province_id  string comment '省份id',
    create_time  string comment '下单时间',
    product_num  int comment '商品件数',
    total_amount decimal(16, 2) comment '下单金额'
)
partitioned by (dt string)
row format delimited fields terminated by '\t';

3)数据装载

将order_detail.txt文件上传到hadoop102节点的/opt/module/hive/datas/目录,并执行以下导入语句。

注:文件较大,请耐心等待。

hive (default)>

load data
    local inpath '/opt/module/hive/datas/order_detail.txt'
    overwrite into
    table order_detail partition (dt = '2020-06-14');

9.2.2 支付表(600w条数据)

1)表结构

id

(支付id)

order_detail_id

(订单id)

user_id

(用户id)

payment_time

(支付时间)

total_amount

(订单金额)

10000001

17403042

131508758

2020-06-14 13:55:44

391.72

10000002

19198884

133018075

2020-06-14 08:46:23

657.10

2)建表语句

hive (default)>

drop table if exists payment_detail;
create table payment_detail(
    id              string comment '支付id',
    order_detail_id string comment '订单明细id',
    user_id         string comment '用户id',
    payment_time    string comment '支付时间',
    total_amount    decimal(16, 2) comment '支付金额'
)
partitioned by (dt string)
row format delimited fields terminated by '\t';

3)数据装载

将payment_detail.txt文件上传到hadoop102节点的/opt/module/hive/datas/目录,并执行以下导入语句。

注:文件较大,请耐心等待。

hive (default)>

load data
    local inpath '/opt/module/hive/datas/payment_detail.txt'
    overwrite into
    table payment_detail partition (dt = '2020-06-14');

9.2.3 商品信息表(100w条数据)

1)表结构

id

(商品id)

product_name

(商品名称)

price

(价格)

category_id

(分类id)

1000001

CuisW

4517.00

219

1000002

TBtbp

9357.00

208

2)建表语句

hive (default)>

drop table if exists product_info;
create table product_info(
    id           string comment '商品id',
    product_name string comment '商品名称',
    price        decimal(16, 2) comment '价格',
    category_id  string comment '分类id'
)
row format delimited fields terminated by '\t';

3)数据装载

将product_info.txt文件上传到hadoop102节点的/opt/module/hive/datas/目录,并执行以下导入语句。

hive (default)>

load data
    local inpath '/opt/module/hive/datas/product_info.txt'
    overwrite into
    table product_info;

9.2.4 省份信息表(34条数据)

1)表结构

id

(省份id)

province_name

(省份名称)

1

北京

2

天津

2)建表语句

hive (default)>

drop table if exists province_info;
create table province_info(
    id            string comment '省份id',
    province_name string comment '省份名称'
)
row format delimited fields terminated by '\t';

3)数据装载

将province_info.txt文件上传到hadoop102节点的/opt/module/hive/datas/目录,并执行以下导入语句。

hive (default)>

load data
    local inpath '/opt/module/hive/datas/province_info.txt'
    overwrite into
    table province_info;

9.3 Explain查看执行计划(重点)

9.3.1 Explain执行计划概述

        Explain呈现的执行计划,由一系列Stage组成,这一系列Stage具有依赖关系,每个Stage对应一个MapReduce Job,或者一个文件系统操作等。

        若某个Stage对应的一个MapReduce Job,其Map端和Reduce端的计算逻辑分别由Map Operator Tree和Reduce Operator Tree进行描述,Operator Tree由一系列的Operator组成,一个Operator代表在Map或Reduce阶段的一个单一的逻辑操作,例如TableScan Operator,Select Operator,Join Operator等。

下图是由一个执行计划绘制而成:              

常见的Operator及其作用如下:

        TableScan:表扫描操作,通常map端第一个操作肯定是表扫描操作

        Select Operator:选取操作

        Group By Operator:分组聚合操作

        Reduce Output Operator:输出到 reduce 操作

        Filter Operator:过滤操作

        Join Operator:join 操作

        File Output Operator:文件输出操作

        Fetch Operator 客户端获取数据操作

9.3.2 基本语法

EXPLAIN [FORMATTED | EXTENDED | DEPENDENCY] query-sql

注:FORMATTED、EXTENDED、DEPENDENCY关键字为可选项,各自作用如下。

        FORMATTED:将执行计划以JSON字符串的形式输出

        EXTENDED:输出执行计划中的额外信息,通常是读写的文件名等信息

        DEPENDENCY:输出执行计划读取的表及分区

9.3.3 案例实操

1)查看下面这条语句的执行计划

hive (default)>

explain
select
    user_id,
    count(*)
from order_detail
group by user_id;
====================
explain
select id,
       count(*)
from student
group by id;
=================
STAGE DEPENDENCIES:  -- Stage之间的依赖关系
  Stage-1 is a root stage -- 根Stage, 先执行根Stage
  Stage-0 depends on stages: Stage-1 -- Stage-0 依赖于Stage-1
""
STAGE PLANS:
  Stage: Stage-1
    Map Reduce
      Map Operator Tree:
          TableScan -- 对应TableScan Operator
            alias: student -- 别名
            Statistics: Num rows: 1 Data size: 800 Basic stats: COMPLETE Column stats: NONE
			-- Statistics 统计信息,将来回去扫描多少行,数据量是多少
            Select Operator  -- select 算子
              expressions: id (type: int)  
			-- 只选则一个字段 id,因为SQL语句中不需要拿全部字段,只需要id字段就可以做最终聚合;
			-- 这是Hive SQL的一个优化(列裁剪),根据SQL语句选择所需要的字段
              outputColumnNames: id -- 输出字段名;
              Statistics: Num rows: 1 Data size: 800 Basic stats: COMPLETE Column stats: NONE
              Group By Operator  
			--- 在Map端已经开始分组聚合,即Map端聚合的优化,到后面输出到reduce端数据量就会变少
			--- 有没有做Map端聚合的优化,从这执行计划中可以看出
                aggregations: count() -- 聚合函数
                keys: id (type: int) -- 分组所用的key
                mode: hash -- 模式为hash模式
"                outputColumnNames: _col0, _col1"
                Statistics: Num rows: 1 Data size: 800 Basic stats: COMPLETE Column stats: NONE
                Reduce Output Operator --- Reduce 输出算子
                  key expressions: _col0 (type: int)  --
                  sort order: +  
			--- 是否排序,其实就是shuffle中的排序,+ 表示升序排序, - 表示降序,
			--- 有几个符号表示有几个排序字段,比如一个+,表示按照下面的分区字段升序排序,+-表示按照两个字段排序,前面升序,后面一个降序
                  Map-reduce partition columns: _col0 (type: int) 
			-- MR中的分区字段,按照上一步输出的两个字段中的_col0字段分区
                  Statistics: Num rows: 1 Data size: 800 Basic stats: COMPLETE Column stats: NONE
                  value expressions: _col1 (type: bigint)
      Execution mode: vectorized
      Reduce Operator Tree:  --- Reduce 算子,接收map端的输出
        Group By Operator --- 分组算子,在map端的分组只是对各自map中的数据分组聚合,在reduce还要进行全局的分组
          aggregations: count(VALUE._col0)
          keys: KEY._col0 (type: int)
          mode: mergepartial  -- 表示把每个map的部分进行聚合
"          outputColumnNames: _col0, _col1"
          Statistics: Num rows: 1 Data size: 800 Basic stats: COMPLETE Column stats: NONE
          File Output Operator  -- 最终的File output 算子,将最终结果输出到hdfs文件,
            compressed: false  -- 不进行压缩
            Statistics: Num rows: 1 Data size: 800 Basic stats: COMPLETE Column stats: NONE
            table:
                input format: org.apache.hadoop.mapred.SequenceFileInputFormat
                output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
                serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
""
  Stage: Stage-0
    Fetch Operator -- Stage-0 比较简单,就是拉取最终的结果,
      limit: -1
      Processor Tree:
        ListSink

2)执行计划如下图

格式化执行计划小工具,接收formatted格式化后的执行计划,需要explain formatted

将dist上传到hadoop113,进入dist目录,执行:python -m SimpleHTTPServer 8900

然后执行命令:

explain formatted
select
       count(*) cnt
from student
group by id;

将格式化后的执行计划复制粘贴到输入框中:

9.4 HQL语法优化之分组聚合优化

9.4.1 优化说明

        Hive中未经优化的分组聚合,是通过一个MapReduce Job实现的。Map端负责读取数据,并按照分组字段分区,通过Shuffle,将数据发往Reduce端,各组数据在Reduce端完成最终的聚合运算。

        Hive对分组聚合的优化主要围绕着减少Shuffle数据量进行,具体做法是map-side聚合。所谓map-side聚合,就是在map端维护一个hash table,利用其完成部分的聚合,然后将部分聚合的结果,按照分组字段分区,发送至reduce端,完成最终的聚合。map-side聚合能有效减少shuffle的数据量,提高分组聚合运算的效率。

map-side 聚合相关的参数如下:

        --启用map-side聚合

        set hive.map.aggr=true; 

        --用于检测源表数据是否适合进行map-side聚合。

        首先什么情况下不适合做map端的聚合?聚合后数据的条数没变,或者变化很小,就没必要去做map端分组聚合。只有当基数(count distinct)越小,比如按照省份id去分组聚合,这样一个map最多输出34条数据,这样的场景去做map端聚合才有意义。

        检测的方法是:先对若干条数据进行map-side聚合,若聚合后的条数和聚合前的条数比值小于该值,则认为该表适合进行map-side聚合;否则,认为该表数据不适合进行map-side聚合,后续数据便不再进行map-side聚合。

        再比如,按照id字段去分组聚合,由于id具有唯一性,id有10万条,分组聚合后还是10万,那么聚合后和聚合前的条数比值为1,这样去做map端聚合就没意义。

        set hive.map.aggr.hash.min.reduction=0.5; 

        --用于检测源表是否适合map-side聚合的条数。

        set hive.groupby.mapaggr.checkinterval=100000;

         --map-side聚合所用的hash table,占用map task堆内存的最大比例,若超出该值,则会对hash table进行一次flush。

        set hive.map.aggr.hash.force.flush.memory.threshold=0.9;

9.4.2 优化案例

1)示例SQL

hive (default)>

select
    product_id,
    count(*)
from order_detail
group by product_id;

        优化前46s

2)优化前

未经优化的分组聚合,执行计划如下图所示:

 3)优化思路

        可以考虑开启map-side聚合,配置以下参数:

        --启用map-side聚合,默认是true

        set hive.map.aggr=true;

         --用于检测源表数据是否适合进行map-side聚合。检测的方法是:先对若干条数据进行map-side聚合,若聚合后的条数和聚合前的条数比值小于该值,则认为该表适合进行map-side聚合;否则,认为该表数据不适合进行map-side聚合,后续数据便不再进行map-side聚合。

        set hive.map.aggr.hash.min.reduction=0.5;

到底有没有做map端聚合,查看日志去确定:打开日志聚集功能

 

找到最近的MR任务,点击history,找map端的任务,然后点击logs

 查看syslogs:

 

这里的Map input records  和 map output records 就分别表示这个map任务输入多少条,输出多少条,输出/输入=hive.map.aggr.hash.min.reduction 如果大于0.5 就表示不进行map端聚合;

可以将hive.map.aggr.hash.min.reduction=1 这样就强制执行map端聚合。

==> 分析:order detail 表实际有2000万条数据,product商品表只有100万,因此按照product_id 进行分组聚合后应该只有100万条,所以这个聚合比是比较大的20:1,是适合做map端聚合,为什么程序实际运行的时候,没有进行map端聚合呢?

==> 原因,hivemap端聚合的hash table 校验机制受到分组字段hive表中数据分布的影响,它并没有进行全表的校验,比如只校验前10万条数据,而刚好前10万条数据的product_id 是1到10万,这样hive就判断它不适合做map端聚合,就不进行,但是实际上可能后面10万条数据都是product_id 为1的商品记录,再后10万条数据都是product_id 为2的商品记录,这样是的数据是适合做map端聚合的。因此我们要根据自己的经验去判断是否适合做map端聚合,而不是完全交给hive去判断,

==> 经过分析,我们认为适合做map端聚合,因此将参数hive.map.aggr.hash.min.reduction=1 强制进行map端聚合。

==> 优化后SQL执行32s

 查看日志:

==> 这里又有一个问题:product_id 最多只有100万条,为什么这里分组聚合后输出了105 万条,多出来了一些?

==> 原因是hash table占用map task堆内存的最大比例,超过了hive.map.aggr.hash.force.flush.memory.threshold 就会对hash 表进行一次flush,

当flush的次数多了,map端输出的条数也会变多。

==> 优化方向,调整参数hive.map.aggr.hash.force.flush.memory.threshold的值,将其变大一些,如果改大之后效果仍然不明显,说明你map task的内存偏小,可以适当调整map task的内存:set  mapreduce.map.memory.mb=2048;

         --用于检测源表是否适合map-side聚合的条数。

        set hive.groupby.mapaggr.checkinterval=100000; 

        --map-side聚合所用的hash table,占用map task堆内存的最大比例,若超出该值,则会对hash table进行一次flush。

        set hive.map.aggr.hash.force.flush.memory.threshold=0.9;

        优化后的执行计划如图所示:

 

9.5 HQL语法优化之Join优化

9.5.1 Join算法概述

Hive拥有多种join算法,包括Common Join,Map Join,Bucket Map Join,Sort Merge Buckt Map Join等,有的join算法快,有的比较慢,有的比较稳定,有的比较冒险,我们要做的是配置合理的参数,让SQL进行合理的join算法,这样才能保证我们的SQL算法更快更合理的去运行,下面对每种join算法做简要说明:

1)Common Join

Common Join是Hive中最稳定的join算法,其通过一个MapReduce Job完成一个join操作。Map端负责读取join操作所需表的数据,并按照关联字段进行分区,通过Shuffle,将其发送到Reduce端,相同key的数据在Reduce端完成最终的Join操作。如下图所示:

 需要注意的是,sql语句中的join操作和执行计划中的Common Join任务并非一对一的关系,一个sql语句中的相邻的且关联字段相同的多个join操作可以合并为一个Common Join任务。

Q: a join b join c ,需要几个MR任务进行?

A:一句话概述:当三个表的关联字段一样时,只需要一个MR任务即可;当关联字段不一样的时候就需要两个MR任务。

例如:

hive (default)>

select
    a.val,
    b.val,
    c.val
from a
join b on (a.key = b.key1)
join c on (c.key = b.key1)

上述sql语句中两个join操作的关联字段均为b表的key1字段,则该语句中的两个join操作可由一个Common Join任务实现,也就是可通过一个Map Reduce任务实现。

hive (default)>

select
    a.val,
    b.val,
    c.val
from a
join b on (a.key = b.key1)
join c on (c.key = b.key2)

上述sql语句中的两个join操作关联字段各不相同,则该语句的两个join操作需要各自通过一个Common Join任务实现,也就是通过两个Map Reduce任务实现。

2)Map Join

Map Join算法可以通过两个只有map阶段的Job完成一个join操作。其适用场景为大表join小表。若某join操作满足要求,则第一个Job会读取小表数据,将其制作为hash table,并上传至Hadoop分布式缓存(本质上是上传至HDFS)。第二个Job会先从分布式缓存中读取小表数据,并缓存在Map Task的内存中,然后扫描大表数据,这样在map端即可完成关联操作。如下图所示:

​​​​​​​哈希表是一种数据结构,它将键值对存储在哈希表中,通过哈希函数将键映射到哈希表中的存储位置,以便快速访问和查找数据,这里hash 表的key 就是关联字段。在map端完成join之后就不需要shuffle,也不需要进入Reducer,这样效率就提升上去了。

 3)Bucket Map Join

Bucket Map Join是对Map Join算法的改进,其打破了Map Join只适用于大表join小表的限制,可用于大表join大表的场景。

Bucket Map Join的核心思想是:若能保证参与join的表均为分桶表,且关联字段为分桶字段,且其中一张表的分桶数量是另外一张表分桶数量的整数倍,就能保证参与join的两张表的分桶之间具有明确的关联关系,所以就可以在两表的分桶间进行Map Join操作了。这样一来,第二个Job的Map端就无需再缓存小表的全表数据了,而只需缓存其所需的分桶即可。其原理如图所示:

Q:如何去理解两张表的分桶之间的关联关系?又为什么要是整数倍?

A:假设分桶字段的值是 0,1,2,3,4,5,6,7 为例,B表桶的数量为2,那么进入B-0桶的数据会是:0,2,4,6;进入B-1桶的数据是:1,3,5,7; A表桶的数量是4,进入A-0桶的数据是:0,4;进入A-1桶的数据是:1,5;进入A-2桶的数据是:2,6;进入A-3桶的数据是3,7;这样A表的A-0桶和A-2桶正好与B表的B-0桶关联上,A-1和A-3 桶与B-1桶关联上,这样A表在进行join的时候,A-0和A-2 只需要加载B表的B-0桶的数据,而不需要加载整个B表,这样数据量就表少了,可以在map端完成join,而不需要进行shuffle然后再到Reducer端完成最后的join,这样就提高了join的效率。

 第二步读取大表的数据,这一步的map任务,采用的切片策略与传统的切片策略,因为它采用的Inputformat是特殊的BucketInputformat,它的切片策略就是一个桶一个切片。每个切片启动一个Mapper来处理,这样每个Mapper只需要加载自己对应的B表的分桶的数据量,然后在map端完成join。 

 

 

4)Sort Merge Bucket Map Join

Sort Merge Bucket Map Join(简称SMB Map Join)基于Bucket Map Join。SMB Map Join要求,参与join的表均为分桶表,且需保证分桶内的数据是有序的,且分桶字段、排序字段和关联字段为相同字段,且其中一张表的分桶数量是另外一张表分桶数量的整数倍。

SMB Map Join同Bucket Join一样,同样是利用两表各分桶之间的关联关系,在分桶之间进行join操作,不同的是,分桶之间的join操作的实现原理。Bucket Map Join,两个分桶之间的join实现原理为Hash Join算法;而SMB Map Join,两个分桶之间的join实现原理为Sort Merge Join算法。

Hash Join和Sort Merge Join均为关系型数据库中常见的Join实现算法。Hash Join的原理相对简单,就是对参与join的一张表构建hash table,然后扫描另外一张表,然后进行逐行匹配。Sort Merge Join需要在两张按照关联字段排好序的表中进行,其原理如图所示:

 

 

 

 

 简单的理解其原理就是:由于是排好序的,先读取A表的一组数据,比如user_id=1(有可能有好几条,取出所有的)然后再将B表对应user_id=1的数据加载到内存,染成join后输出即可,即不用加载所有数据,不需要在内存中构建hash 表。当然还有其他的一起情况,比如拿着A表的数据,在B表中关联不上怎么处理,这些由算法去决定,因此这个算法还是比较难的。

Hive中的SMB Map Join就是对两个分桶的数据按照上述思路进行Join操作。可以看出,SMB Map Join与Bucket Map Join相比,在进行Join操作时,Map端是无需对整个Bucket构建hash table,也无需在Map端缓存整个Bucket数据的,每个Mapper只需按顺序逐个key读取两个分桶的数据进行join即可。

 

9.5.2 Map Join

9.5.2.1 优化说明

Map Join有两种触发方式,一种是用户在SQL语句中增加hint提示,另外一种是Hive优化器根据参与join表的数据量大小,自动触发。

1)Hint提示

用户可通过如下方式,指定通过map join算法,并且ta将作为map join中的小表。这种方式已经过时,不推荐使用。

hive (default)>

select /*+ mapjoin(ta) */

    ta.id,

    tb.id

from table_a ta

join table_b tb

on ta.id=tb.id;

2)自动触发

Hive在编译SQL语句阶段,起初所有的join操作均采用Common Join算法实现。

之后在物理优化阶段,Hive会根据每个Common Join任务所需表的大小判断该Common Join任务是否能够转换为Map Join任务,若满足要求,便将Common Join任务自动转换为Map Join任务。

但有些Common Join任务所需的表大小,在SQL的编译阶段是未知的(例如对子查询进行join操作),所以这种Common Join任务是否能转换成Map Join任务在编译阶是无法确定的。

针对这种情况,Hive会在编译阶段生成一个条件任务(Conditional Task),其下会包含一个计划列表,计划列表中包含转换后的Map Join任务以及原有的Common Join任务。最终具体采用哪个计划,是在运行时决定的。大致思路如下图所示:

 Map join自动转换的具体判断逻辑如下图所示:

 

图中涉及到的参数如下:

        --启动Map Join自动转换

        set hive.auto.convert.join=true;

 

        --一个Common Join operator转为Map Join operator的判断条件,若该Common Join相关的表中,存在n-1张表的已知大小总和<=该值,则生成一个Map Join计划,此时可能存在多种n-1张表的组合均满足该条件,则hive会为每种满足条件的组合均生成一个Map Join计划,同时还会保留原有的Common Join计划作为后备(back up)计划,实际运行时,优先执行Map Join计划,若不能执行成功,则启动Common Join后备计划。

        set hive.mapjoin.smalltable.filesize=25000000;(Bytes)

 

        --开启无条件转Map Join

        set hive.auto.convert.join.noconditionaltask=true;

 

        --无条件转Map Join时的小表之和阈值,若一个Common Join operator相关的表中,存在n-1张表的大小总和<=该值,此时hive便不会再为每种n-1张表的组合均生成Map Join计划,同时也不会保留Common Join作为后备计划。而是只生成一个最优的Map Join计划。

        set hive.auto.convert.join.noconditionaltask.size=10000000;(Bytes,MRS中这个值设置的是20000000)

9.5.2.2 优化案例

1)示例SQL

hive (default)>

select
    *
from order_detail od
join product_info product on od.product_id = product.id
join province_info province on od.province_id = province.id;

2)优化前

上述SQL语句共有三张表进行两次join操作,且两次join操作的关联字段不同。故优化前的执行计划应该包含两个Common Join operator,也就是由两个MapReduce任务实现。执行计划如下图所示:

 

3)优化思路

经分析,参与join的三张表,数据量如下

表名

大小

order_detail

1176009934(约1122M)

product_info

25285707(约24M)

province_info

369(约0.36K)

注:可使用如下语句获取表/分区的大小信息

hive (default)>

desc formatted table_name partition(partition_col='partition');

三张表中,product_info和province_info数据量较小,可考虑将其作为小表,进行Map Join优化。

根据前文Common Join任务转Map Join任务的判断逻辑图,可得出以下优化方案:

方案一:

启用Map Join自动转换。

hive (default)>

set hive.auto.convert.join=true;

不使用无条件转Map Join。

hive (default)>

set hive.auto.convert.join.noconditionaltask=false;

调整hive.mapjoin.smalltable.filesize参数,使其大于等于product_info。

hive (default)>

set hive.mapjoin.smalltable.filesize=25285707;

这样可保证将两个Common Join operator均可转为Map Join operator,并保留Common Join作为后备计划,保证计算任务的稳定。调整完的执行计划如下图:

 

方案二:

启用Map Join自动转换。

hive (default)>

set hive.auto.convert.join=true;

使用无条件转Map Join。

hive (default)>

set hive.auto.convert.join.noconditionaltask=true;

调整hive.auto.convert.join.noconditionaltask.size参数,使其大于等于product_info和province_info之和。

hive (default)>

set hive.auto.convert.join.noconditionaltask.size=25286076;

这样可直接将两个Common Join operator转为两个Map Join operator,并且由于两个Map Join operator的小表大小之和小于等于hive.auto.convert.join.noconditionaltask.size,故两个Map Join operator任务可合并为同一个。这个方案计算效率最高,但需要的内存也是最多的。

调整完的执行计划如下图:

 

方案三:

启用Map Join自动转换。

hive (default)>

set hive.auto.convert.join=true;

使用无条件转Map Join。

hive (default)>

set hive.auto.convert.join.noconditionaltask=true;

调整hive.auto.convert.join.noconditionaltask.size参数,使其等于product_info。

hive (default)>

set hive.auto.convert.join.noconditionaltask.size=25285707;

这样可直接将两个Common Join operator转为Map Join operator,但不会将两个Map Join的任务合并。该方案计算效率比方案二低,但需要的内存也更少。

调整完的执行计划如下图:

 

9.5.3 Bucket Map Join

9.5.3.1 优化说明

Bucket Map Join不支持自动转换,发须通过用户在SQL语句中提供如下Hint提示,并配置如下相关参数,方可使用。

1)Hint提示

hive (default)>

select /*+ mapjoin(ta) */

    ta.id,

    tb.id

from table_a ta

join table_b tb on ta.id=tb.id;

2)相关参数

--关闭cbo优化,cbo会导致hint信息被忽略

set hive.cbo.enable=false;

--map join hint默认会被忽略(因为已经过时),需将如下参数设置为false

set hive.ignore.mapjoin.hint=false;

--启用bucket map join优化功能

set hive.optimize.bucketmapjoin = true;

9.5.3.2 优化案例

1)示例SQL

hive (default)>

select

    *

from(

    select

        *

    from order_detail

    where dt='2020-06-14'

)od

join(

    select

        *

    from payment_detail

    where dt='2020-06-14'

)pd

on od.id=pd.order_detail_id;

2)优化前

上述SQL语句共有两张表一次join操作,故优化前的执行计划应包含一个Common Join任务,通过一个MapReduce Job实现。执行计划如下图所示:

 

3)优化思路

经分析,参与join的两张表,数据量如下。

表名

大小

order_detail

1176009934(约1122M)

payment_detail

334198480(约319M)

两张表都相对较大,若采用普通的Map Join算法,则Map端需要较多的内存来缓存数据,当然可以选择为Map段分配更多的内存,来保证任务运行成功。但是,Map端的内存不可能无上限的分配,所以当参与Join的表数据量均过大时,就可以考虑采用Bucket Map Join算法。下面演示如何使用Bucket Map Join。

首先需要依据源表创建两个分桶表,order_detail建议分16个bucket,payment_detail建议分8个bucket,注意分桶个数的倍数关系以及分桶字段

--订单表

hive (default)>

drop table if exists order_detail_bucketed;

create table order_detail_bucketed(

    id           string comment '订单id',

    user_id      string comment '用户id',

    product_id   string comment '商品id',

    province_id  string comment '省份id',

    create_time  string comment '下单时间',

    product_num  int comment '商品件数',

    total_amount decimal(16, 2) comment '下单金额'

)

clustered by (id) into 16 buckets

row format delimited fields terminated by '\t';

 

--支付表

hive (default)>

drop table if exists payment_detail_bucketed;

create table payment_detail_bucketed(

    id              string comment '支付id',

    order_detail_id string comment '订单明细id',

    user_id         string comment '用户id',

    payment_time    string comment '支付时间',

    total_amount    decimal(16, 2) comment '支付金额'

)

clustered by (order_detail_id) into 8 buckets

row format delimited fields terminated by '\t';

然后向两个分桶表导入数据。

--订单表

hive (default)>

insert overwrite table order_detail_bucketed

select

    id,

    user_id,

    product_id,

    province_id,

    create_time,

    product_num,

    total_amount  

from order_detail

where dt='2020-06-14';

 

--分桶表

hive (default)>

insert overwrite table payment_detail_bucketed

select

    id,

    order_detail_id,

    user_id,

    payment_time,

    total_amount

from payment_detail

where dt='2020-06-14';

然后设置以下参数:

--关闭cbo优化,cbo会导致hint信息被忽略,需将如下参数修改为false

set hive.cbo.enable=false;

--map join hint默认会被忽略(因为已经过时),需将如下参数修改为false

set hive.ignore.mapjoin.hint=false;

--启用bucket map join优化功能,默认不启用,需将如下参数修改为true

set hive.optimize.bucketmapjoin = true;

最后在重写SQL语句,如下:

hive (default)>

select /*+ mapjoin(pd) */

    *

from order_detail_bucketed od

join payment_detail_bucketed pd on od.id = pd.order_detail_id;

优化后的执行计划如图所示:

 

需要注意的是,Bucket Map Join的执行计划的基本信息和普通的Map Join无异,若想看到差异,可执行如下语句,查看执行计划的详细信息。详细执行计划中,如在Map Join Operator中看到 “BucketMapJoin: true”,则表明使用的Join算法为Bucket Map Join。

hive (default)>

explain extended select /*+ mapjoin(pd) */

    *

from order_detail_bucketed od

join payment_detail_bucketed pd on od.id = pd.order_detail_id;

9.5.4 Sort Merge Bucket Map Join

9.5.4.1 优化说明

Sort Merge Bucket Map Join有两种触发方式,包括Hint提示和自动转换。Hint提示已过时,不推荐使用。下面是自动转换的相关参数:

--启动Sort Merge Bucket Map Join优化

set hive.optimize.bucketmapjoin.sortedmerge=true;

--使用自动转换SMB Join

set hive.auto.convert.sortmerge.join=true;

9.5.4.2 优化案例

1)示例SQL语句

hive (default)>

select

    *

from(

    select

        *

    from order_detail

    where dt='2020-06-14'

)od

join(

    select

        *

    from payment_detail

    where dt='2020-06-14'

)pd

on od.id=pd.order_detail_id;

2)优化前

上述SQL语句共有两张表一次join操作,故优化前的执行计划应包含一个Common Join任务,通过一个MapReduce Job实现。

3)优化思路

经分析,参与join的两张表,数据量如下

表名

大小

order_detail

1176009934(约1122M)

payment_detail

334198480(约319M)

两张表都相对较大,除了可以考虑采用Bucket Map Join算法,还可以考虑SMB Join。相较于Bucket Map Join,SMB Map Join对分桶大小是没有要求的。下面演示如何使用SMB Map Join。

首先需要依据源表创建两个的有序的分桶表,order_detail建议分16个bucket,payment_detail建议分8个bucket,注意分桶个数的倍数关系以及分桶字段和排序字段

--订单表

hive (default)>

drop table if exists order_detail_sorted_bucketed;

create table order_detail_sorted_bucketed(

    id           string comment '订单id',

    user_id      string comment '用户id',

    product_id   string comment '商品id',

    province_id  string comment '省份id',

    create_time  string comment '下单时间',

    product_num  int comment '商品件数',

    total_amount decimal(16, 2) comment '下单金额'

)

clustered by (id) sorted by(id) into 16 buckets

row format delimited fields terminated by '\t';

 

--支付表

hive (default)>

drop table if exists payment_detail_sorted_bucketed;

create table payment_detail_sorted_bucketed(

    id              string comment '支付id',

    order_detail_id string comment '订单明细id',

    user_id         string comment '用户id',

    payment_time    string comment '支付时间',

    total_amount    decimal(16, 2) comment '支付金额'

)

clustered by (order_detail_id) sorted by(order_detail_id) into 8 buckets

row format delimited fields terminated by '\t';

然后向两个分桶表导入数据。

--订单表

hive (default)>

insert overwrite table order_detail_sorted_bucketed

select

    id,

    user_id,

    product_id,

    province_id,

    create_time,

    product_num,

    total_amount  

from order_detail

where dt='2020-06-14';

 

--分桶表

hive (default)>

insert overwrite table payment_detail_sorted_bucketed

select

    id,

    order_detail_id,

    user_id,

    payment_time,

    total_amount

from payment_detail

where dt='2020-06-14';

然后设置以下参数:

--启动Sort Merge Bucket Map Join优化

set hive.optimize.bucketmapjoin.sortedmerge=true;

--使用自动转换SMB Join

set hive.auto.convert.sortmerge.join=true;

最后在重写SQL语句,如下:

hive (default)>

select

    *

from order_detail_sorted_bucketed od

join payment_detail_sorted_bucketed pd

on od.id = pd.order_detail_id;

优化后的执行计如图所示:

 

9.6 HQL语法优化之数据倾斜

9.6.1 数据倾斜概述

数据倾斜问题,通常是指参与计算的数据分布不均,即某个key或者某些key的数据量远超其他key,导致在shuffle阶段,大量相同key的数据被发往同一个Reduce,进而导致该Reduce所需的时间远超其他Reduce,成为整个任务的瓶颈。

Hive中的数据倾斜常出现在分组聚合和join操作的场景中,下面分别介绍在上述两种场景下的优化思路。

9.6.2 分组聚合导致的数据倾斜

9.6.2.1 优化说明

前文提到过,Hive中未经优化的分组聚合,是通过一个MapReduce Job实现的。Map端负责读取数据,并按照分组字段分区,通过Shuffle,将数据发往Reduce端,各组数据在Reduce端完成最终的聚合运算。

如果group by分组字段的值分布不均,就可能导致大量相同的key进入同一Reduce,从而导致数据倾斜问题。

由分组聚合导致的数据倾斜问题,有以下两种解决思路:

1)Map-Side聚合

开启Map-Side聚合后,数据会现在Map端完成部分聚合工作。这样一来即便原始数据是倾斜的,经过Map端的初步聚合后,发往Reduce的数据也就不再倾斜了。最佳状态下,Map-端聚合能完全屏蔽数据倾斜问题。

相关参数如下:

--启用map-side聚合

set hive.map.aggr=true;

 

--用于检测源表数据是否适合进行map-side聚合。检测的方法是:先对若干条数据进行map-side聚合,若聚合后的条数和聚合前的条数比值小于该值,则认为该表适合进行map-side聚合;否则,认为该表数据不适合进行map-side聚合,后续数据便不再进行map-side聚合。

set hive.map.aggr.hash.min.reduction=0.5;

 

--用于检测源表是否适合map-side聚合的条数。

set hive.groupby.mapaggr.checkinterval=100000;

 

--map-side聚合所用的hash table,占用map task堆内存的最大比例,若超出该值,则会对hash table进行一次flush。

set hive.map.aggr.hash.force.flush.memory.threshold=0.9;

2)Skew-GroupBy优化

Skew-GroupBy的原理是启动两个MR任务,第一个MR按照随机数分区,将数据分散发送到Reduce,完成部分聚合,第二个MR按照分组字段分区,完成最终聚合。

相关参数如下:

--启用分组聚合数据倾斜优化

set hive.groupby.skewindata=true;

9.6.2.2 优化案例

1)示例SQL语句

hive (default)>

select

    province_id,

    count(*)

from order_detail

group by province_id;

2)优化前

该表数据中的province_id字段是存在倾斜的,若不经过优化,通过观察任务的执行过程,是能够看出数据倾斜现象的。

 

需要注意的是,hive中的map-side聚合是默认开启的,若想看到数据倾斜的现象,需要先将hive.map.aggr参数设置为false。

3)优化思路

通过上述两种思路均可解决数据倾斜的问题。下面分别进行说明:

(1)Map-Side聚合

设置如下参数

--启用map-side聚合

set hive.map.aggr=true;

--关闭skew-groupby

set hive.groupby.skewindata=false;

开启map-side聚合后的执行计划如下图所示:

 

        很明显可以看到开启map-side聚合后,reduce数据不再倾斜。

 

(2)Skew-GroupBy优化

设置如下参数

--启用skew-groupby

set hive.groupby.skewindata=true;

--关闭map-side聚合

set hive.map.aggr=false;

开启Skew-GroupBy优化后,可以很明显看到该sql执行在yarn上启动了两个mr任务,第一个mr打散数据,第二个mr按照打散后的数据进行分组聚合。

 

思考:map 端聚合方案明显比skew-groupby 的优化方案要好:首先map 聚合在内存中进行,速度比较快,其次不用多启动一个mr任务,少了一些准备阶段的耗时,那为什么还有skew-groupby的优化方案?

A: map端聚合会在内存中维护一个hash 表,比较耗资源,当然内存少的情况下也能做map端聚合,只是超过设定的map task内存阈值(0.9)之后会flush,flush次数多的情况下,map端聚合对数据倾斜的优化不明显;因此这个时候方案二的优化是可以有效解决数据倾斜问题的。

9.6.3 Join导致的数据倾斜

9.6.3.1 优化说明

前文提到过,未经优化的join操作,默认是使用common join算法,也就是通过一个MapReduce Job完成计算。Map端负责读取join操作所需表的数据,并按照关联字段进行分区,通过Shuffle,将其发送到Reduce端,相同key的数据在Reduce端完成最终的Join操作。

如果关联字段的值分布不均,就可能导致大量相同的key进入同一Reduce,从而导致数据倾斜问题。

由join导致的数据倾斜问题,有如下三种解决方案:

1)map join

使用map join算法,join操作仅在map端就能完成,没有shuffle操作,没有reduce阶段,自然不会产生reduce端的数据倾斜。该方案适用于大表join小表时发生数据倾斜的场景。

相关参数如下:

--启动Map Join自动转换

set hive.auto.convert.join=true;

 

--一个Common Join operator转为Map Join operator的判断条件,若该Common Join相关的表中,存在n-1张表的大小总和<=该值,则生成一个Map Join计划,此时可能存在多种n-1张表的组合均满足该条件,则hive会为每种满足条件的组合均生成一个Map Join计划,同时还会保留原有的Common Join计划作为后备(back up)计划,实际运行时,优先执行Map Join计划,若不能执行成功,则启动Common Join后备计划。

set hive.mapjoin.smalltable.filesize=250000;

 

--开启无条件转Map Join

set hive.auto.convert.join.noconditionaltask=true;

 

--无条件转Map Join时的小表之和阈值,若一个Common Join operator相关的表中,存在n-1张表的大小总和<=该值,此时hive便不会再为每种n-1张表的组合均生成Map Join计划,同时也不会保留Common Join作为后备计划。而是只生成一个最优的Map Join计划。

set hive.auto.convert.join.noconditionaltask.size=10000000;

2)skew join

skew join 同样是为了解决大表join 大表,内存不够的情况下出现的,虽然map join可以完美的解决因为关联字段产生的数据倾斜问题,但是map join只适用于大表join小表,在内存中维护小表的hash table的场景。

思考:map join不能解决大表join大表,那为什么不用 Bucket map join的优化呢?

A:Bucket map join 的做法是根据关联字段去创建分桶表,让后将源表通过insert select的方式插入到分桶表,然后对分桶表进行join,这次就可以走Bucket map join,但是insert的过程也是一个MR任务,相同key的数据会被分配到同一个桶内,因此Bucket map join并不能解决数据倾斜的问题,分桶的本身也存在数据倾斜的问题,同样使用sort merge join也不能解决数据倾斜的问题。

skew join的原理是,为倾斜的大key单独启动一个map join任务进行计算,其余key进行正常的common join。原理图如下:

 

 说明:Skew Join算法处理的是一对多的场景,即关联的key在一张表中是倾斜的,在另外一张表是正常的,上图中A,B两张表的数据都是比较大的,在内存中放不下,同时关联的keyA表中数据倾斜,在B表中不倾斜,前面一个阶段,Reducer1之前其实是一个common join的过程,相同的key被发到同一个Reducer中处理,a表和b表中正常的数据(a-k2b-k2)和(a-k3b-k3)走正常的common join,由于a-k1的数据发生倾斜,并没有走common join,判断是否产生数据倾斜由参数(hive.skewjoin.key=100000)决定,当启用了skew join(set hive.optimize.skewjoin=true;)的时候,底层在reducer端检测到某个key的数据是一个大key,即产生了数据倾斜的时候,不会在当前的reducer中完成join,而是将发生倾斜的数据(不管是A表的k1还是B表的k1)发往HDFS,然后再起一个Job完成一个map join。显然这里B 表中的k1数据是小表,因此会被加载到内存维护一张hash table,而A表的k1数据会被进行均匀的切片,然后由不同的mapper进行处理。

以上是针对由数据倾斜的情况,但是有些SQL运行过程中没有数据倾斜,因此后面一个job 并不会进行,所以后面的一个map join是否进行是在运行SQL的过程中动态决定的,并不是说设置了skew joi的参数就一定会走skew join,它是由两部分共同决定的,即 hive.optimize.skewjoin=true hive.skewjoin.key=100000

相关参数如下:

--启用skew join优化

set hive.optimize.skewjoin=true;

--触发skew join的阈值,若某个key的行数超过该参数值,则触发

set hive.skewjoin.key=100000;

这种方案对参与join的源表大小没有要求,但是对两表中倾斜的key的数据量有要求,要求一张表中的倾斜key的数据量比较小(方便走mapjoin)。

3)调整SQL语句

若参与join的两表均为大表,其中一张表的数据是倾斜的,此时也可通过以下方式对SQL语句进行相应的调整。

假设原始SQL语句如下:A,B两表均为大表,且其中一张表的数据是倾斜的。

hive (default)>

select

    *

from A

join B

on A.id=B.id;

其join过程如下:

图中1001为倾斜的大key,可以看到,其被发往了同一个Reduce进行处理。

调整SQL语句如下:

hive (default)>

select

    *

from(

    select --打散操作

        concat(id,'_',cast(rand()*2 as int)) id,

        value

    from A

)ta

join(

    select --扩容操作

        concat(id,'_',0) id,

        value

    from B

    union all

    select

        concat(id,'_',1) id,

        value

    from B

)tb

on ta.id=tb.id;

说明:这里将A表的数据均匀的分成了两部分(rand的范围是(0,1),乘以2并取整之后就会得到0或1两部分,如果要均匀的分成3部分,就rand()*3 as int),如果B表不做任何的修改是关联不上的,因此对B表进行改造使用union all 将B表的数据扩大了一倍,分别在id后面加上_0 和_1 的后缀,由于B表是小表,所以可以这样做,然后再去join的时候是可以得到我们想要的数据的。这样经过处理后的数据,再到后面根据key去分区的时候,以前是相同的key 进入同一个reducer中,现在是被均匀的分到两个reducer中处理,这样就可以加快join的效率。这样经过处理后的数据,再到后面根据key去分区的时候,以前是相同的key 进入同一个reducer中,现在是被均匀的分到两个reducer中处理,这样就可以加快join的效率。虽然这样参与join的数据量大了,因为B表进行了扩容,但是Hive底层是MR,是分布式任务,在资源充足的情况下,不怕数据量大(只需要提高并行度即可),而害怕的是数据倾斜产生的短板效应(整个MR任务的耗时,以跑的最慢的那个任务决定),因此数据打散带来的效率提升是更加明显的。

由于数据倾斜的解决方案,你的 ID 字段后面多了 `_0` 或 `_1` 的后缀。如果你想在最终结果中去掉这些后缀,你可以在最终查询结果中使用 `SUBSTRING` 函数来截取所需部分。以下是你可以修改的查询:

SELECT 
    SUBSTRING(ta.id, 1, LENGTH(ta.id) - 2) as id,  -- 截取掉 '_0' 或 '_1' 后缀
    ta.value,
    tb.value
FROM
    (
    SELECT
        CONCAT(id, '_', CAST(RAND() * 2 AS INT)) id,
        value
    FROM A
    ) ta
JOIN
    (
    SELECT
        CONCAT(id, '_0') id,
        value
    FROM B
    UNION ALL
    SELECT
        CONCAT(id, '_1') id,
        value
    FROM B
    ) tb
ON ta.id = tb.id;

在上面的查询中,使用了 `SUBSTRING` 函数来截取 `id` 字段,去除了 `_0` 或 `_1` 后缀部分。这样就可以在结果中避免显示后缀而保留正确的 ID 值。您可以根据实际情况调整和优化,确保结果满足您的需求。

调整之后的SQL语句执行计划如下图所示:

小结:解决数据倾斜问题的三个思路:

        1.大表join小表,用map join;

        2.大表join大表,skew join;

        3.大表join大表,调整SQL,将倾斜的数据打散。

9.6.3.2 优化案例

1)示例SQL语句

hive (default)>

select

    *

from order_detail od

join province_info pi

on od.province_id=pi.id;

2)优化前

order_detail表中的province_id字段是存在倾斜的,若不经过优化,通过观察任务的执行过程,是能够看出数据倾斜现象的。

 

需要注意的是,hive中的map join自动转换是默认开启的,若想看到数据倾斜的现象,需要先将hive.auto.convert.join参数设置为false。

3)优化思路

上述两种优化思路均可解决该数据倾斜问题,下面分别进行说明:

(1)map join

设置如下参数

--启用map join

set hive.auto.convert.join=true;

--关闭skew join

set hive.optimize.skewjoin=false;

可以很明显看到开启map join以后,mr任务只有map阶段,没有reduce阶段,自然也就不会有数据倾斜发生。

 

 

(2)skew join

设置如下参数

--启动skew join

set hive.optimize.skewjoin=true;

--关闭map join

set hive.auto.convert.join=false;

开启skew join后,使用explain可以很明显看到执行计划如下图所示,说明skew join生效,任务既有common join,又有部分key走了map join。

 

并且该sql在yarn上最终启动了两个mr任务,而且第二个任务只有map没有reduce阶段,说明第二个任务是对倾斜的key进行了map join。

 

 

9.7 HQL语法优化之任务并行度

9.7.1 优化说明

对于一个分布式的计算任务而言,设置一个合适的并行度十分重要。Hive的计算任务由MapReduce完成,故并行度的调整需要分为Map端和Reduce端。

9.7.1.1 Map端并行度

Map端的并行度,也就是Map的个数。是由输入文件的切片数决定的。一般情况下,Map端的并行度无需手动调整。

以下特殊情况可考虑调整map端并行度:

1)查询的表中存在大量小文件

按照Hadoop默认的切片策略,一个小文件会单独启动一个map task负责计算。若查询的表中存在大量小文件,则会启动大量map task,造成计算资源的浪费。这种情况下,可以使用Hive提供的CombineHiveInputFormat,多个小文件合并为一个切片,从而控制map task个数。相关参数如下:

set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

2)map端有复杂的查询逻辑

若SQL语句中有正则替换、json解析等复杂耗时的查询逻辑时,map端的计算会相对慢一些。若想加快计算速度,在计算资源充足的情况下,可考虑增大map端的并行度,令map task多一些,每个map task计算的数据少一些。相关参数如下:

--一个切片的最大值

set mapreduce.input.fileinputformat.split.maxsize=256000000;

如果想将并行度调大一点,那么就将这个切片的数据量调小一点,比如128000000,这样就是128MB一个切片。

9.7.1.2 Reduce端并行度

Reduce端的并行度,也就是Reduce个数。相对来说,更需要关注。Reduce端的并行度,可由用户自己指定,也可由Hive自行根据该MR Job输入的文件大小进行估算。

Reduce端的并行度的相关参数如下:

--指定Reduce端并行度,默认值为-1,表示用户未指定

set mapreduce.job.reduces;

--Reduce端并行度最大值

set hive.exec.reducers.max;

hive.exec.reducers.max=1009

--单个Reduce Task计算的数据量,用于估算Reduce并行度

set hive.exec.reducers.bytes.per.reducer;

Reduce端并行度的确定逻辑如下:

若指定参数mapreduce.job.reduces的值为一个非负整数,则Reduce并行度为指定值。否则,Hive自行估算Reduce并行度,估算逻辑如下:

假设Job输入的文件大小为totalInputBytes

参数hive.exec.reducers.bytes.per.reducer的值为bytesPerReducer。

参数hive.exec.reducers.max的值为maxReducers。

则Reduce端的并行度为:

 

- 向上取整:ceil()

- 向下取整:floor()

- 四舍五入:round()

根据上述描述,可以看出,Hive自行估算Reduce并行度时,是以整个MR Job输入的文件大小作为依据的。因此,在某些情况下其估计的并行度很可能并不准确,此时就需要用户根据实际情况来指定Reduce并行度了。

这里用整个map job端读入的数据量去估算reducer的数量,其实是不准确的,比如以一个groupby 分组聚合为例,会涉及到map端聚合,当进行map端聚合之后,reducer端拿到的数据量是要远远小于map端输入的文件的大小的,所以用整个map 端job读入的数据量去估算reducer的数量是不准确的,由于Hive On MR后续过时被拿掉了,因此源码中还是采用的这种方式,后续没有去做完善,而在tez引擎或者spark引擎中是以reducer端获取到的数据量去估算reducer的数量,这是比较合理的。因此在MR引擎中hive估算reducer的数量是不准确的,需要用户自己去判断reducer的数量。

9.7.2 优化案例

1)示例SQL语句

hive (default)>

select

    province_id,

    count(*)

from order_detail

group by province_id;

2)优化前

上述sql语句,在不指定Reduce并行度时,Hive自行估算并行度的逻辑如下:

totalInputBytes= 1136009934

bytesPerReducer=256000000

maxReducers=1009

经计算,Reduce并行度为

 

3)优化思路

上述sql语句,在默认情况下,是会进行map-side聚合的,也就是Reduce端接收的数据,实际上是map端完成聚合之后的结果。观察任务的执行过程,会发现,每个map端输出的数据只有34条记录,共有5个map task。

 

也就是说Reduce端实际只会接收170(34*5)条记录,故理论上Reduce端并行度设置为1就足够了。这种情况下,用户可通过以下参数,自行设置Reduce端并行度为1。

--指定Reduce端并行度,默认值为-1,表示用户未指定

set mapreduce.job.reduces=1;

9.8 HQL语法优化之小文件合并

9.8.1 优化说明

小文件合并优化,分为两个方面,分别是Map端输入的小文件合并,和Reduce端输出的小文件合并。

9.8.1.1 Map端输入文件合并

合并Map端输入的小文件,是指将多个小文件划分到一个切片中,进而由一个Map Task去处理。目的是防止为单个小文件启动一个Map Task,浪费计算资源。

相关参数为:

--可将多个小文件切片,合并为一个切片,进而由一个map任务处理

set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

9.8.1.2 Reduce输出文件合并

合并Reduce端输出的小文件,是指将多个小文件合并成大文件目的是减少HDFS小文件数量。其原理是根据计算任务输出文件的平均大小进行判断,若符合条件,则单独启动一个额外的任务进行合并。

相关参数为:

--开启合并map only任务输出的小文件

set hive.merge.mapfiles=true;

 

--开启合并map reduce任务输出的小文件

set hive.merge.mapredfiles=true;

 

--合并后的文件大小

set hive.merge.size.per.task=256000000;

 

--触发小文件合并任务的阈值,若某计算任务输出的文件平均大小低于该值,则触发合并

set hive.merge.smallfiles.avgsize=16000000;

9.8.2 优化案例

1)示例用表

现有一个需求,计算各省份订单金额总和,下表为结果表。

hive (default)>

drop table if exists order_amount_by_province;

create table order_amount_by_province(

    province_id string comment '省份id',

    order_amount decimal(16,2) comment '订单金额'

)

location '/order_amount_by_province';

2)示例SQL语句

hive (default)>

insert overwrite table order_amount_by_province

select

    province_id,

    sum(total_amount)

from order_detail

group by province_id;

3)优化前

根据任务并行度一节所需内容,可分析出,默认情况下,该sql语句的Reduce端并行度为5,故最终输出文件个数也为5,下图为输出文件,可以看出,5个均为小文件。

 

4)优化思路

若想避免小文件的产生,可采取方案有两个。

(1)合理设置任务的Reduce端并行度

若将上述计算任务的并行度设置为1,就能保证其输出结果只有一个文件。

(2)启用Hive合并小文件优化

设置以下参数:

--开启合并map reduce任务输出的小文件

set hive.merge.mapredfiles=true;

 

--合并后的文件大小

set hive.merge.size.per.task=256000000;

 

--触发小文件合并任务的阈值,若某计算任务输出的文件平均大小低于该值,则触发合并

set hive.merge.smallfiles.avgsize=16000000;

再次执行上述的insert语句,观察结果表中的文件,只剩一个了。

 

9.9 其他优化

9.9.1 CBO优化

9.9.1.1 优化说明

CBO是指Cost based Optimizer,即基于计算成本的优化。

在Hive中,计算成本模型考虑到了:数据的行数、CPU、本地IO、HDFS IO、网络IO等方面。比如a join b join c 这样的inner join,在保证相同的结果的情况下,可能生成不同的物理执行计划,而不同的执行计划的计算成本(比如处理多少行数据需要消耗的CPU时间、内存的大小等)都是不一样的,Hive会计算同一SQL语句的不同执行计划的计算成本,并选出成本最低的执行计划。目前CBO在hive的MR引擎下主要用于join的优化,例如多表join的join顺序。

相关参数为:

--是否启用cbo优化

set hive.cbo.enable=true;

9.9.2.2 优化案例

1)示例SQL语句

hive (default)>

select

    *

from order_detail od

join product_info product on od.product_id=product.id

join province_info province on od.province_id=province.id;

2)关闭CBO优化

--关闭cbo优化

set hive.cbo.enable=false;

 

--为了测试效果更加直观,关闭map join自动转换

set hive.auto.convert.join=false;

根据执行计划,可以看出,三张表的join顺序如下:

 

3)开启CBO优化

--开启cbo优化

set hive.cbo.enable=true;

--为了测试效果更加直观,关闭map join自动转换

set hive.auto.convert.join=false;

根据执行计划,可以看出,三张表的join顺序如下:

 

4)总结

根据上述案例可以看出,CBO优化对于执行计划中join顺序是有影响的,其之所以会将province_info的join顺序提前,是因为province info的数据量较小,将其提前,会有更大的概率使得中间结果的数据量变小,从而使整个计算任务的数据量减小,也就是使计算成本变小。

9.9.2 谓词下推

9.9.2.1 优化说明

谓词下推(predicate pushdown)是指,尽量将过滤操作前移,以减少后续计算步骤的数据量。

相关参数为:

--是否启动谓词下推(predicate pushdown)优化

set hive.optimize.ppd = true;

需要注意的是:

CBO优化也会完成一部分的谓词下推优化工作,因为在执行计划中,谓词越靠前,整个计划的计算成本就会越低。

9.9.2.2 优化案例

1)示例SQL语句

hive (default)>

select

    *

from order_detail

join province_info

where order_detail.province_id='2';

2)关闭谓词下推优化

--是否启动谓词下推(predicate pushdown)优化

set hive.optimize.ppd = false;

 

--为了测试效果更加直观,关闭cbo优化

set hive.cbo.enable=false;

通过执行计划可以看到,过滤操作位于执行计划中的join操作之后。

3)开启谓词下推优化

--是否启动谓词下推(predicate pushdown)优化

set hive.optimize.ppd = true;

 

--为了测试效果更加直观,关闭cbo优化

set hive.cbo.enable=false;

通过执行计划可以看出,过滤操作位于执行计划中的join操作之前。

小结:虽然hive默认开启了谓词下推的优化,但是在写SQL的过程中还是建议考虑到谓词下推的优化,即先写个子查询将数据过滤掉,再进行join,这样即使没有开启谓词下推的优化,也是有谓词下推的效果。

9.9.3 矢量化查询

Hive的矢量化查询优化,依赖于CPU的矢量化计算,CPU的矢量化计算的基本原理如下图:

Hive的矢量化查询,可以极大的提高一些典型查询场景(例如scans, filters, aggregates, and joins)下的CPU使用效率。矢量计算可以极大的减少CPU指令的切换,从而提高CPU的使用效率。

相关参数如下:

set hive.vectorized.execution.enabled=true;

若执行计划中,出现“Execution mode: vectorized”字样,即表明使用了矢量化计算。

比如:

 

 矢量化查询的优化并不是所有场景的适用,有一定的限制,查看官网说明。

官网参考连接:

Vectorized Query Execution - Apache Hive - Apache Software Foundation

以上的数据类型是支持矢量化优化的,对于arraystruct这类复杂数据类型就不适用。

以上这些操作适用矢量化优化。

9.9.4 Fetch抓取

Fetch抓取是指,Hive中对某些情况的查询可以不必使用MapReduce计算。例如:select * from emp;在这种情况下,Hive可以简单地读取emp对应的存储目录下的文件,然后输出查询结果到控制台。

相关参数如下:

--是否在特定场景转换为fetch 任务

--设置为none表示不转换

--设置为minimal表示支持select *,分区字段过滤,Limit等

--设置为more表示支持select 任意字段,包括函数,过滤,和limit等

set hive.fetch.task.conversion=more;

9.9.5 本地模式

9.9.5.1 优化说明

大多数的Hadoop Job是需要Hadoop提供的完整的可扩展性来处理大数据集的。不过,有时Hive的输入数据量是非常小的。在这种情况下,为查询触发执行任务消耗的时间可能会比实际job的执行时间要多的多。对于大多数这种情况,Hive可以通过本地模式在单台机器上处理所有的任务。对于小数据集,执行时间可以明显被缩短。

相关参数如下:

--开启自动转换为本地模式

set hive.exec.mode.local.auto=true; 

  默认为false

--设置local MapReduce的最大输入数据量,当输入数据量小于这个值时采用local  MapReduce的方式,默认为134217728,即128M

set hive.exec.mode.local.auto.inputbytes.max=50000000;

  默认:hive.exec.mode.local.auto.inputbytes.max=134217728;

--设置local MapReduce的最大输入文件个数,当输入文件个数小于这个值时采用local MapReduce的方式,默认为4

set hive.exec.mode.local.auto.input.files.max=10;

9.9.5.2 优化案例

1)示例SQL语句

hive (default)>

select

    count(*)

from product_info

group by category_id;

2)关闭本地模式

set hive.exec.mode.local.auto=false;

3)开启本地模式

set hive.exec.mode.local.auto=true;

9.9.6 并行执行

Hive会将一个SQL语句转化成一个或者多个Stage,每个Stage对应一个MR Job。默认情况下,Hive同时只会执行一个Stage。但是某SQL语句可能会包含多个Stage,但这多个Stage可能并非完全互相依赖,也就是说有些Stage是可以并行执行的。此处提到的并行执行就是指这些Stage的并行执行。相关参数如下:

--启用并行执行优化

set hive.exec.parallel=true;      

   

--同一个sql允许最大并行度,默认为8

set hive.exec.parallel.thread.number=8;

9.9.7 严格模式

Hive可以通过设置某些参数防止危险操作:

1)分区表不使用分区过滤

将hive.strict.checks.no.partition.filter设置为true时,对于分区表,除非where语句中含有分区字段过滤条件来限制范围,否则不允许执行。换句话说,就是用户不允许扫描所有分区。进行这个限制的原因是,通常分区表都拥有非常大的数据集,而且数据增加迅速。没有进行分区限制的查询可能会消耗令人不可接受的巨大资源来处理这个表。

2)使用order by没有limit过滤

将hive.strict.checks.orderby.no.limit设置为true时,对于使用了order by语句的查询,要求必须使用limit语句。因为order by为了执行排序过程会将所有的结果数据分发到同一个Reduce中进行处理,强制要求用户增加这个limit语句可以防止Reduce额外执行很长一段时间(开启了limit可以在数据进入到Reduce之前就减少一部分数据)。

3)笛卡尔积

将hive.strict.checks.cartesian.product设置为true时,会限制笛卡尔积的查询。对关系型数据库非常了解的用户可能期望在执行JOIN查询的时候不使用ON语句而是使用where语句,这样关系数据库的执行优化器就可以高效地将WHERE语句转化成那个ON语句。不幸的是,Hive并不会执行这种优化,因此,如果表足够大,那么这个查询就会出现不可控的情况。

​​​​​​​小结:

-- 计算资源分配
set yarn.nodemanager.resource.memory-mb; -- -1
-- yarn.nodemanager.resource.memory-mb是一个YARN 配置参数,用于设置每个 YARN NodeManager 可以使用的最大内存量。
-- 将这个参数设置为 -1 意味着 Hive 将不会限制 YARN NodeManager 可以使用的内存量,而是让 YARN 自行决定分配给 NodeManager 的内存。
set yarn.nodemanager.resource.cpu-vcores; -- -1
set yarn.scheduler.minimum-allocation-mb; -- 1024
set yarn.scheduler.maximum-allocation-mb; -- 8192
set mapreduce.map.memory.mb; -- -1
set mapreduce.map.cpu.vcores; -- 1
set mapreduce.reduce.memory.mb; -- -1
set mapreduce.reduce.cpu.vcores; -- 1

-- map 聚合优化相关参数
set hive.map.aggr; -- true
set hive.map.aggr.hash.min.reduction; -- 0.5
set hive.groupby.mapaggr.checkinterval; -- 100000,10万
set hive.map.aggr.hash.force.flush.memory.threshold; -- 0.9

-- map join优化相关参数
set hive.auto.convert.join; -- true
set hive.mapjoin.smalltable.filesize; -- 25000000Bytes,23.84MB
set hive.auto.convert.join.noconditionaltask; -- true
set hive.auto.convert.join.noconditionaltask.size; -- 10000000Bytes,9.5MB
set hive.ignore.mapjoin.hint; -- true, 如果要使用hint的方式,需要将其改为false
set hive.optimize.bucketmapjoin; -- false,要使用Bucket map join需要更改为true
set hive.optimize.bucketmapjoin.sortedmerge; -- false,要使用SMB join需要更改为true
set hive.auto.convert.sortmerge.join; -- true

-- 数据倾斜的优化
-- 1.map-site 聚合
set hive.map.aggr; -- true
-- 2.Skew-GroupBy
set hive.groupby.skewindata; -- false,要启用需设置为true
-- join导致数据倾斜
set hive.auto.convert.join; -- true 自动转换为map join
set hive.mapjoin.smalltable.filesize;
set hive.auto.convert.join.noconditionaltask; -- true
set hive.auto.convert.join.noconditionaltask.size;
set hive.skewjoin.key; -- 100000, 10万

-- 任务并行度
set hive.input.format; -- org.apache.hadoop.hive.ql.io.CombineHiveInputFormat,合并小文件,减少map数量,默认是开启的
set mapreduce.input.fileinputformat.split.maxsize; -- 256000000,约256MB,要增大并行度可降低为128MB
set mapreduce.job.reduces; -- -1
set hive.exec.reducers.max; -- 1009
set hive.exec.reducers.bytes.per.reducer; -- 256000000,256MB
set hive.merge.mapfiles; -- true
set hive.merge.mapredfiles; -- false
set hive.merge.size.per.task; -- 256000000, 小文件合并后大小为256MB
set hive.merge.smallfiles.avgsize; -- 16000000,某计算任务输出文件平均大小低于16MB,则触发合并,合并后文件大小为256MB

-- 其他优化
-- CBO
set hive.cbo.enable; -- true,成本计算:数据的行数,CPU,内存,本地IO,HDFS IO,网络IO等;选择最优的执行计划
-- 谓词下推
set hive.optimize.ppd; -- true,Predicate push down 谓词下推
-- 矢量化查询
set hive.vectorized.execution.enabled; -- true, 矢量化查询:Scan、Filter、aggregate、join等场景
-- Fetch抓取本地文件
set hive.fetch.task.conversion;
-- Fetch优化,简单读取本地存储目录下的文件,
-- none 不转换为本地抓取
-- minimal 支持select *, 分区字段过,Limit等
-- more 支持select 任意字段,包括函数,过滤,和limit等

-- MR本地化
set hive.exec.mode.local.auto; -- false, 自动转换本地模式,默认关闭,可以设置为true
set hive.exec.mode.local.auto.inputbytes.max; -- 134217728,当输入数据量小于此值进行本地化MR,可改大
set hive.exec.mode.local.auto.input.files.max; -- 4,当输入文件个数小于此值进行本地化MR,可改大
-- SQL并行度
set hive.exec.parallel; -- false,MR多个不相关(无依赖关系)stage之间的并行执行,默认是关闭的
set hive.exec.parallel.thread.number; -- 8,同一个SQL允许的最大并行度
-- 分区表不使用分区过滤
set hive.strict.checks.no.partition.filter; -- false,设置为true时,当不适用分区过滤SQL不允许执行
-- order by 没有使用limit过滤
set hive.strict.checks.orderby.no.limit; -- false,设置为true时,如果order by 后面不加limit,SQL不允许执行
-- 笛卡尔积
set hive.strict.checks.cartesian.product; -- false,设置为true时,不允许产生笛卡尔积的SQL执行

10. 综合案例练习

  • 26
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值