Hive SQL语法解读

一、 创建表
    在官方的wiki里,example是这样的:

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
  [(col_name data_type [COMMENT col_comment], ...)]
  [COMMENT table_comment]
  [PARTITIONED BY (col_name data_type
    [COMMENT col_comment], ...)]
  [CLUSTERED BY (col_name, col_name, ...)
  [SORTED BY (col_name [ASC|DESC], ...)]
  INTO num_buckets BUCKETS]
  [ROW FORMAT row_format]
  [STORED AS file_format]
  [LOCATION hdfs_path]

    [ROW FORMAT DELIMITED]关键字,是用来设置创建的表在加载数据的时候,支持的列分隔符;
[STORED AS file_format]关键字是用来设置加载数据的数据类型。Hive本身支持的文件格式只有:Text File,Sequence File。如果文件数据是纯文本,可以使用 [STORED AS TEXTFILE]。如果数据需要压缩,使用 [STORED AS SEQUENCE] 。通常情况,只要不需要保存序列化的对象,我们默认采用[STORED AS TEXTFILE]。

    那么我们创建一张普通的hive表,hive sql就如下:

CREATE TABLE test_1(id INT, name STRING, city STRING) SORTED BY TEXTFILE ROW FORMAT DELIMITED‘\t’

    其中,hive支持的字段类型,并不多,可以简单的理解为数字类型和字符串类型,详细列表如下:

TINYINT
SMALLINT
INT
BIGINT
BOOLEAN
FLOAT
DOUBLE
STRING

Hive的表,与普通关系型数据库,如mysql在表上有很大的区别,所有hive的表都是一个文件,它是基于Hadoop的文件系统来做的。

    hive总体来说可以总结为三种不同类型的表。

1. 普通表

    普通表的创建,如上所说,不讲了。其中,一个表,就对应一个表名对应的文件。

2. 外部表

    EXTERNAL 关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数 据会被一起删除,而外部表只删除元数据,不删除数据。具体sql如下:

CREATE EXTERNAL TABLE test_1(id INT, name STRING, city STRING) SORTED BY TEXTFILE ROW FORMAT DELIMITED‘\t’ LOCATION ‘hdfs://../../..’

3. 分区表

    有分区的表可以在创建的时候使用 PARTITIONED BY 语句。一个表可以拥有一个或者多个分区,每一个分区单独存在一个目录下。而且,表和分区都可以对某个列进行 CLUSTERED BY 操作,将若干个列放入一个桶(bucket)中。也可以利用SORT BY 对数据进行排序。这样可以为特定应用提高性能。具体SQL如下:

CREATE TABLE test_1(id INT, name STRING, city STRING) PARTITIONED BY (pt STRING) SORTED BY TEXTFILE ROW FORMAT DELIMITED‘\t’ 

Hive的排序,因为底层实现的关系,比较不同于普通排序,这里先不讲。

     桶的概念,主要是为性能考虑,可以理解为对分区内列,进行再次划分,提高性能。在底层,一个桶其实是一个文件。如果桶划分过多,会导致文件数量暴增,一旦达到系统文件数量的上限,就杯具了。哪种是最优数量,这个哥也不知道。

    分区表实际是一个文件夹,表名即文件夹名。每个分区,实际是表名这个文件夹下面的不同文件。分区可以根据时间、地点等等进行划分。比如,每天一个分区,等 于每天存每天的数据;或者每个城市,存放每个城市的数据。每次查询数据的时候,只要写下类似 where pt=2010_08_23这样的条件即可查询指定时间得数据。

    总体而言,普通表,类似mysql的表结构,外部表的意义更多是指数据的路径映射。分区表,是最难以理解,也是最hive最大的优势。之后会专门针对分区表进行讲解。

二、 加载数据

    Hive不支持一条一条的用insert语句进行插入操作,也不支持update的操作。数据是以load的方式,加载到建立好的表中。数据一旦导入,则不可修改。要么drop掉整个表,要么建立新的表,导入新的数据。

官方指导为:

LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]

Hive在数据load这块,大方向分为两种方式,load文件或者查询一张表,或者将某张表里的额查询结果插入指定表。
如果划分更细一点个人归纳总结为4种不同的方式的load:

1. Load data到指定的表

    直接将file,加载到指定的表,其中,表可以是普通表或者分区表。具体sql如下:

LOAD DATA LOCAL INPATH '/home/admin/test/test.txt' OVERWRITE INTO TABLE test_1

关键字[OVERWRITE]意思是是覆盖原表里的数据,不写则不会覆盖。
    关键字[LOCAL]是指你加载文件的来源为本地文件,不写则为hdfs的文件。
    其中
     ‘home/admin/test/test.txt’是相对路径
     ‘/home/admin/test/test.txt’为据对路径

2. load到指定表的分区

    直接将file,加载到指定表的指定分区。表本身必须是分区表,如果是普通表,导入会成功,但是数据实际不会被导入。具体sql如下:

LOAD DATA LOCAL INPATH '/home/admin/test/test.txt' OVERWRITE INTO TABLE test_1 PARTITION(pt=’xxxx)

load数据,hive支持文件夹的方式,将文件夹内的所有文件,都load到指定表中。Hdfs会将文件系统内的某文件夹路径内的文件,分散到不同的实际物理地址中。这样,在数据量很大的时候,hive支持读取多个文件载入,而不需要限定在唯一的文件中。
   
3. insert+select

    这个是完全不同于文件操作的数据导入方式。官方指导为:

Standard syntax:
INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1 FROM from_statement 
 
Hive extension (multiple inserts):
FROM from_statement
INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1
[INSERT OVERWRITE TABLE tablename2 [PARTITION ...] select_statement2] ...
 
Hive extension (dynamic partition inserts):
INSERT OVERWRITE TABLE tablename PARTITION (partcol1[=val1], partcol2[=val2] ...) select_statement FROM from_statement

这个的用法,和上面两种直接操作file的方式,截然不同。从sql语句本身理解,就是把查询到的数据,直接导入另外一张表。这个暂时不仔细分析,之后查询章节,再细讲。

4. alter 表,对分区操作

    在对表结构进行修改的时候,我们可以增加一个新的分区,在增加新分区的同时,将数据直接load到新的分区当中。

ALTER TABLE table_name ADD
  partition_spec [ LOCATION 'location1' ]
  partition_spec [ LOCATION 'location2' ] ...
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Hive SQL语法解析工具是一个用于解析Hive SQL语句的工具,它能够将输入的Hive SQL语句转换成一棵语法树,便于后续的语义分析和优化处理。 该工具的主要作用是对Hive SQL语句进行解析和分析,将其转换成一种抽象的语法树表示形式。语法树是一种树状结构,其中每个节点表示SQL语句中的一个元素,例如关键字、表名、列名、运算符等。通过解析Hive SQL语句并构建语法树,可以使得对SQL语句的解析和处理更加方便和灵活。 在Hive中,通过使用ANTLR等工具,可以实现Hive SQL语法树的解析操作。ANTLR是一种强大的解析器生成器,可以根据给定的语法规则自动生成解析器。通过编写Hive SQL语法的ANTLR规则,我们可以使用ANTLR工具生成相应的解析器,然后利用该解析器对Hive SQL语句进行解析和分析。 使用Hive SQL语法解析工具,可以实现以下功能: 1. 将Hive SQL语句解析语法树,方便后续的处理。 2. 对解析出的语法树进行语义分析,例如检查表和列的存在性、类型匹配等。 3. 对语法树进行优化处理,例如消除冗余的列、优化查询计划等。 4. 生成Hive执行计划,用于执行Hive SQL语句。 总之,Hive SQL语法解析工具是一个十分重要的工具,它能够将Hive SQL语句转换成易于处理的语法树形式,方便进行语义分析和优化处理。这对于Hive的查询和数据处理非常有帮助。 ### 回答2: Hive SQL语法解析工具是一种用于解析Hive SQL语句,并将其转换为语法树结构的工具。它可以帮助开发人员分析和理解Hive SQL语句的结构和含义。 Hive SQL语法解析工具的工作原理是先对输入的Hive SQL语句进行词法分析,将其分解为一个个的词法单元,比如关键字、标识符、运算符等。然后,根据语法规则,将词法单元组合成语法单元,逐步构建语法树。 语法树是一种树状结构,它以SQL语句的语法规则为基础,将SQL语句以层次化的方式表示出来。每个节点代表一个语法单元,比如SELECT、FROM、WHERE等。节点之间通过父子关系连接起来,形成一棵树。 语法树的解析过程包括词法分析、语法分析和语义分析三个阶段。在词法分析阶段,工具会将输入的SQL语句拆分成一个个的词法单元。在语法分析阶段,工具会根据语法规则,将词法单元组合成语法单元,逐步构建语法树。在语义分析阶段,工具会进一步验证语法树的正确性,并进行语义解析,比如检查表和列的存在性、类型一致性等。 使用Hive SQL语法解析工具可以帮助开发人员更好地理解和调试Hive SQL语句。通过查看语法树结构,可以清晰地了解SQL语句的组成部分和执行顺序。此外,语法解析工具还可以用于编写自定义的Hive查询优化器和执行引擎,提高查询性能和效率。 总而言之,Hive SQL语法解析工具是一种强大的工具,能够将Hive SQL语句解析语法树结构,帮助开发人员分析和优化SQL查询语句。它在Hive生态系统中有着重要的作用。 ### 回答3: Hive SQL语法解析工具是一种用于解析Hive SQL语句的工具。在Hive中,SQL语句被解析为一个语法树,然后通过语法树进行语义分析和执行计划生成。 Hive SQL语法解析工具主要包括以下几个方面的功能: 1. 词法分析:将输入的SQL语句拆分成一个个的词法单元,如关键字、标识符、运算符等。 2. 语法分析:基于词法分析结果,将词法单元组织成语法规则所定义的语法结构,生成语法树。 3. 语义分析:对语法树进行语义检查,包括检查列或表是否存在、检查数据类型是否匹配等,确保SQL语句的合法性。 4. 执行计划生成:根据语法树和语义分析的结果,生成Hive SQL语句对应的执行计划,用于后续的查询执行。 Hive SQL语法解析工具的作用是将用户输入的SQL语句转换为可执行的查询计划,为Hive查询引擎提供执行指令。它在Hive的查询过程中起到关键作用,有效地提高查询效率和查询执行的准确性。 总而言之,Hive SQL语法解析工具是一种用于解析Hive SQL语句的工具,通过词法分析、语法分析、语义分析和执行计划生成等功能,将输入的SQL语句转换为可执行的查询计划。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值