Hive 官方手册翻译 -- Hive Transactions (Hive 事务)

由 Alan Gates创建, 最终由 Andrew Sherman修改于2018年8月7日

原文链接:https://cwiki.apache.org/confluence/display/Hive/Hive+Transactions

翻译:Google Google翻译,金山软件 金山词霸

校对:南大通用 范振勇 (如有翻译问题,请多指教)

一、Hive 3的警告

  升级到Hive 3.0时,由之前版本创建的任何事务性表都需要在每个分区上运行Major(主要/深度)级紧缩操作。更确切地说,自上一次Major级紧缩操作之后,在其上执行任何Update/Delete/Merge语句的分区,都必须再进行一次Major级紧缩操作。就是说,在Hive升级到Hive 3之前,此分区上不会发生任何Update/Delete/Merge操作。

二、什么是ACID,为什么要使用ACID呢?

  ACID代表了数据库事务的四个特征:原子性(一个操作要么完全成功,要么失败,绝不会留下部分数据) 、一致性(一旦应用程序执行了一个操作,该操作的结果在它以后的每个操作中都是可见的)、隔离性(一个用户未完成的操作不会对其他用户造成意外影响),以及持久性(一旦一个操作完成,它将保持下来,即便面对机器故障或系统故障)。一直以来,这些特性被认为是数据库系统事务功能的一部分。

  截止到 0.13,Hive都只提供分区级别的原子性、一致性和持久性。可以通过打开一种可用的锁机制(Zookeeper或内存)来提供隔离性。随着在Hive 0.13中添加事务,现在可以在行级别提供完整的ACID语义,这样一个应用程序就可以在另一个应用程序读取同一个分区时添加行,而不会相互干扰。

Hive中添加ACID语义事务的特性,可以解决以下用例:

  1.  流数据的采集。许多用户使用如Apache Flume,Apache Storm,或Apache Kafka等工具,将数据流到自己的Hadoop集群。尽管这些工具可以每秒数百行或更多行的速度写入数据,但Hive只能每十五分钟到一小时的添加分区。更短间隔的添加分区会导致表中出现大量的分区。这些工具可以将数据流到现有的分区中,但这将导致读操作产生脏读(也就是说,能看到在启动查询后会写入的数据),并在目录中留下许多小文件,这将给NameNode带来压力。使用此事务功能,将支持此场景,同时保证读操作获得一致的数据视图,并避免过多的文件。
  2.  缓慢变化的维度(表)。在典型的星型模型的数据仓库中,维度表随着时间的推移变化很缓慢。例如,零售商开设新的商店,这些商店需要添加到商店表中,或者现有的商店可能会改变面积或其他可跟踪的特性。这些更改会导致插入单个记录或更新记录(取决于所选择的策略)。从0.14开始,Hive能够支持这一点。
  3.  数据重述(译注:财务术语,类似“调帐”)。有时,收集的数据被认为是不正确的,需要修正。或数据的第一个实例可能是近似值(90%的服务报告),随后提供了完整数据。或业务规则可能要求因为随后的交易进行重述某些交易(例如,在购物之后,客户可以购买成员资格,因此有权享受折扣价格,包括在先前的购买记录)。或者用户可以根据合同约定在他们关系的结束时消除其客户的数据。从Hive0.14开始,这些用例可以通过INSERT,UPDATE和DELETE来支持。
  4.  使用SQL MERGE语句实现批量更新。

三、限制

  1. 所有DML操作都是自动提交,尚不支持BEGIN,COMMIT,和ROLLBACK,计划在将来的版本中支持这些特性。
  2. 在第一个版本中只支持ORC文件格式。构建事务特性的初衷是可以使用任何存储格式,只要这些存储格式可以确定如何更新或删除基本记录(基本上,具有显式或隐式的行id即可),但到目前为止,仅完成针对ORC的集成工作。
  3. 默认情况下,事务被配置为OFF。有关配置值的讨论,请参见下面的配置部分。
  4. 要使用事务特性,表必须分桶。在同一系统中的不使用事务和ACID的表则无需分桶。外部表不能成为ACID表,因为外部表上的更改超出了紧缩器的控制范围(hive-13175)。
  5. 不允许从非ACID的会话中读取/写入ACID表。换句话说,要操作ACID表,必须将Hive事务管理器设置为org.apache.hadoop.hive.ql.lockmgr.DbTxnManager。
  6. 现在只支持快照隔离级别。当一个给定的查询启动时,它会提供该数据的一致快照。不支持脏读(READ UNCIMMITTED)、提交读(READ COMMITTED)、可重复读(REPEATABLE READ)或可序列化(SERIALIZABLE)。引入BEGIN的目的是在事务持续时间内支持快照隔离,而不仅仅是一个查询。根据用户请求,还可以添加其他隔离级别。
  7. 现有的ZooKeeper和内存锁管理器与事务不兼容。我们无意处理这个问题。有关如何为事务存储锁的讨论,请参阅下面的基本设计。
  8. 原来ACID表不支持使用ALTER TABLE更改Schema,参见Hive-11421。此缺陷于Hive 1.3.0/ Hive 2.0.0修复成功。
  9. 使用Oracle作为Metastore DB和“datanucleus.connectionPoolingType = BONECP”时,可能偶发性产生 “No such lock ...”和“No such transaction...”的错误。在这种情况下,建议设置“datanucleus.connectionPoolingType = DBCP”。
  10. LOAD DATA ...语句不支持事务性表,直到Hive-16732才能正确执行。

四、流式API

Hive提供了流数据采集和流式转换的API:

    Hive HCatalog流API

    Hive流API(从Hive 3开始)

    HCatalog流式转换API(在Hive2.0.0及更高版本)

API的比较可参考流式转换文档的背景部分。

五、语法变化

1.从Hive0.14开始,INSERT … VALUES,UPDATE和DELETE已被添加到SQL语法。详见 Language Manual DML

2.一些新的命令已经添加到Hive的DDL中,以支持ACID和事务,另外一些修改了现有的DDL语句。

2.1加入一个新命令SHOW TRANSACTIONS,详见Show Transactions

2.2加入一个新命令SHOW COMPACTIONS,详见 Show Compactions

2.3改变了SHOW LOCKS命令,以便提供锁与事务相关的信息。如果您使用的是Zookeeper或内存锁管理器,你会发现这个命令的输出并无差别。详见Show Locks

2.4 ALTER TABLE添加了一个新的选项,用于表或分区的紧缩。在一般情况下,用户不需要请求紧缩,因为系统会检测紧缩的需求并开始执行紧缩。但是,如果关闭了表的紧缩功能,或者用户希望在系统没选择的情况下紧缩表,则可以使用ALTER TABLE启动紧缩。详见  Alter Table/Partition紧缩,这将任务放到紧缩排队等待后返回。用户可以使用SHOW COMPACTIONS查看紧缩的进度。

3.添加一个新命令终止事务:ABORT TRANSACTIONS,详见Abort Transactions

六、基本设计

  HDFS不支持文件的就地更改.对于追加写的文件,它也不为用户不提供读取的一致性。为了在HDFS之上提供这些特性,我们遵循了在其他数据仓库工具中使用的标准方法。表或分区的数据存储在一组基本文件中。新记录、更新和删除的记录存储在增量文件中。每个事务(或者是流代理(如Flume或Storm)的每个批事务)都创建了一组新的增量文件,以更改表或分区。在读取时,合并基础文件和增量文件并应用更新和删除的变化。

6.1、 基础目录和增量目录

  以前,分区(或者表,如果该表未分区的话)的所有文件都存放在一个目录中。现在更改后,任何使用ACID更改的分区(或表)都将有一个用于基本文件的目录和一个用于每个增量文件集的目录。对于未分区的表“t”,其目录布局如下所示:

表“T”在文件系统的布局

hive> dfs -ls -R /user/hive/warehouse/t;
drwxr-xr-x   - ekoifman staff          0 2016-06-09 17:03 /user/hive/warehouse/t/base_0000022
-rw-r--r--   1 ekoifman staff        602 2016-06-09 17:03 /user/hive/warehouse/t/base_0000022/bucket_00000
drwxr-xr-x   - ekoifman staff          0 2016-06-09 17:06 /user/hive/warehouse/t/delta_0000023_0000023_0000
-rw-r--r--   1 ekoifman staff        611 2016-06-09 17:06 /user/hive/warehouse/t/delta_0000023_0000023_0000/bucket_00000
drwxr-xr-x   - ekoifman staff          0 2016-06-09 17:07 /user/hive/warehouse/t/delta_0000024_0000024_0000
-rw-r--r--   1 ekoifman staff        610 2016-06-09 17:07 /user/hive/warehouse/t/delta_0000024_0000024_0000/bucket_00000

6.2、 紧缩器

  紧缩器是一套Metastore内运行,支持ACID系统的后台进程。它由Initiator(发起者),Worker,Cleaner,AcidHouseKeeperService和其他几部分组成。

6.2.1、  增量文件紧缩

  随着表的修改操作,创建了越来越多的增量文件,就需要紧缩以保持足够的性能。有两种类型的紧缩,次要和主要:

  次要/轻度/minor紧缩处理一组现有的增量文件,针对每个桶,将它们重写为单个的增量文件。

  主要/深度/major紧缩处理一个或多个桶的增量文件和基本文件,并将它们重写为每个桶新的基本文件。主要紧缩成本更高,但更有效。

  所有紧缩都是在后台完成的,不会阻止数据的并发读、写。紧缩后,系统将等待所有旧文件的读操作完成后,删除旧文件。

6.2.1.1、    Initiator(发起者)

  这个模块负责发现哪些表或分区需要紧缩。需要在Metastore中配置参数hive.compactor.initiator.on启用该模块,在“事务的新配置参数”中有几个形式为*.threshold的属性,控制何时创建紧缩任务以及执行哪种类型的紧缩。每个紧缩任务处理一个分区(如果表未分区,则处理整个表)。如果给定分区的连续紧缩失败次数超过hive.compactor.initiator.failed.compacts.threshold,则该分区的自动紧缩调度将停止。有关更多信息,请参见配置参数表。

6.2.1.2、    Worker

  每个Worker处理单个紧缩任务。紧缩任务是一个MapReduce的作业,其名称形式如下:<hostname>-compactor-<db>.<table>.<partition>。每个Worker向集群提交作业(如果定义了hive.compactor.jobs.queue)到Yarn队列,并等待作业完成。hive.compactor.worker.threads确定每个Metastore中的Worker数量。Hive数据仓库中的Worker总数决定了紧缩的最大并发数量。

6.2.1.3、    Cleaner

  就是在紧缩后,确定不再需要增量文件之后删除增量文件的进程。

6.2.1.4、    AcidHouseKeeperService

  此进程查找在hive.txn.timeout时间内没有心跳的事务,并中止它们。系统假设此时启动事务的客户端停止心跳、崩溃,而它锁定的资源应该被释放。

6.2.1.5、    SHOW COMPACTIONS

  此命令显示有关当前正在运行的紧缩和紧缩的近期历史记录(可配置保留期限)信息。从hive-12353开始,可显示紧缩的历史记录信息。

  关于此命令和输出的更多信息,可参阅  LanguageManual DDL#Show Compactions。影响该命令的输出的参数见“事务新的配置参数/紧缩历史记录”配置属性。系统保留每种类型的最后N个条目:失败、成功、尝试(其中N对每种类型都是可配置的)。

6.3、 事务/锁管理器

  Hive添加了一个名为“事务管理器”的新逻辑概念,它包含了以前的“数据库/表/分区锁管理器”的概念(hive.lock.Manager,缺省值为org.apache.hadoop.hive.ql.lockmgr.zookeeper.ZooKeeperHiveLockManager)。事务管理器现在还负责管理事务锁。默认的DummyTxnManager模仿老Hive版本的行为:没有事务,并使用hive.lock.Manager属性为表、分区和数据库创建锁管理器。新添加的DbTxnManager使用DbLockManager管理Hive Metastore中的所有锁/事务(事务和锁在服务器故障时是持久的)。这意味着在启用事务时,不再存在以前锁定Zookeeper中的行为了。为了避免客户端死掉并使事务或锁悬而未决,定期从锁持有者和事务发起者向Metastore发送心跳。如果在配置的时间内未接收到心跳,则锁或事务将被中止。

  从Hive 1.3.0开始,DbLockManger可以通过控制hive.lock.numretires和hive.lock.sleep.between.retries来设定尝试获取锁的时间。当DbLockManager无法获得锁(由于存在竞争锁)时,它将退出,并在某个时间段后再试。为了支持短时间运行的即席查询,而又不对Metastore压力太大,每次重试之后,DbLockManager将等待时间加倍。初始回退时间为100 ms,并以hive.lock.sleep.between.retries为上限。hive.lock.numretries是它将重试请求锁的总次数。因此,调用获取锁将阻塞的总时间(给定100次重试和60次睡眠时间)是(100 ms 200 ms 400 ms.51200 ms 60s ..60s)=91分钟:42秒:300毫秒。

  锁管理器中使用的锁的详细信息见Show locks

  请注意,使用DbTxnManager的锁管理器将获取所有表上的锁,即使是那些没有设置“transactional=true”属性的表。默认情况下,对非事务性表的INSERT操作将获得独占锁,从而阻止其他插入和读取。虽然在技术上是正确的,但这与传统Hive的工作方式(例如,w/o 锁管理器)是不同的, 为了向后兼容,提供了hive.txn.strict.locking.mode(见下表)模式,这将使该锁管理器在非事务性表的插入操作上获取共享锁。这恢复了以前的语义,同时仍然提供了锁管理器的好处,例如在读取表时防止表被删除。

  请注意,对于事务表,插入总是获取共享锁,因为这些表在存储层实现了MVCC架构,并且即使存在并发修改操作,也能提供读的强一致性(快照隔离)。

七、配置参数

  必须设置这些配置参数的适当值,才能最低限度的打开Hive中的事务支持:

客户端

    hive.support.concurrency  - true

    hive.enforce.bucketing  - true(从Hive2.0不再需要)

    hive.exec.dynamic.partition.mode  - nonstrict

    hive.txn.manager  -  org.apache.hadoop.hive.ql.lockmgr.DbTxnManager

服务器端(Metastore)

    hive.compactor.initiator.on  -  true(参见下面表格有详细介绍)

    hive.compactor.worker.threads  -至少在一个metastore Thrift服务的实例设置为正数

以下部分列出了所有影响Hive事务和紧缩的配置参数。另见上方的“限制”和下面的“表属性”。

7.1、 事务的新配置参数

  许多新的配置参数已经被添加到系统,用以支持事务。

配置关键

默认值

位置

注解

hive.txn.manager

见注解

客户端/
HiveServer2

默认值: org.apache.hadoop.hive.ql.lockmgr.DummyTxnManager

支持事务所需的值: org.apache.hadoop.hive.ql.lockmgr.DbTxnManager

而DummyTxnManager实现Hive 0.13前的行为,并且不提供事务支持。

hive.txn.strict.locking.mode

true

客户端/ HiveServer2

在严格模式非ACID资源使用标准的R / W锁语义,例如INSERT将获得排他锁;在非严格模式,对于非ACID资源,INSERT将只获取共享锁,它允许两个并发写入到相同的分区,但仍让锁管理器在表被写入时阻止DROP TABLE等(从Hive 2.2.0)。

hive.txn.timeout 

300

客户端/
HiveServer2 /Metastore 

如果客户没有发送心跳,多长时间(单位秒)之后宣布事务中止。对于所有组件/服务,至关重要的是此属性要有相同的值。(注5)

hive.txn.heartbeat.threadpool.size

 5

客户端/ HiveServer2

用于心跳的线程数(从Hive 1.3.0和2.0.0开始)。

hive.timedout.txn.reaper.start

100秒

Metastore

Metastore启动后,启动第一个收割器(中止超时事务的进程)的延迟时间(从Hive 0.13开始)。用于控制上述的AcidHouseKeeperServcie。

hive.timedout.txn.reaper.interval

180秒

Metastore

描述收割程序(中止超时事务的进程)运行频率的时间间隔。(从Hive 0.13开始)。用于控制上述的AcidHouseKeeperServcie。

hive.txn.max.open.batch

1000

客户

可以在调用一次open_txns()获取到事务的最大数量。(注1)

hive.max.open.txns

100000

HiveServer2 /Metastore

打开的事务的最大数量。如果当前打开的事务达到此限制,则将来打开的事务请求将被拒绝,直到该数目低于限制为止。(从Hive 1.3.0和2.1.0)

hive.count.open.txns.interval

1秒

HiveServer2 /Metastore

检查打开事务计数的时间间隔(单位秒)(从Hive 1.3.0和2.1.0开始)。

hive.txn.retryable.sqlex.regex

“”(空字符串)

HiveServer2 /Metastore

由逗号分隔的一组用于描述SQL状态,错误代码,可重试的SQLExceptions错误信息的正则表达式,这是适合于Hive Metastore数据库(从Hive 1.3.0和2.1.0)。

例子见配置属性

hive.compactor.initiator.on

false

Metastore

缺省值为false,支持事务的话需要为true。

是否在此Metastore实例上运行启动器(initiator)和清理(cleaner)的线程。在Hive1.3.0之前,关键是要正好在一个独立的Metastore服务实例上启用它(尚未强制执行)。从Hive1.3.0开始,可以在任意数量的独立Metastore实例上启用此属性。

hive.compactor.worker.threads

0

Metastore

在这个metastore实例上运行多少个紧缩工作线程。(注2)

默认值为0,支持事务时至少在一个Metastore实例上大于0。

hive.compactor.worker.timeout

86400

Metastore

紧缩作业运行多长时间(秒)后会被宣告失败,并重新排队。

hive.compactor.cleaner.run.interval

5000

Metastore

运行清理线程的间隔(毫秒)。(Hive 0.14.0和更高版本)。

hive.compactor.check.interval

300

Metastore

检查表或分区是否需要紧缩的时间间隔(单位秒)。(注3)

hive.compactor.delta.num.threshold

10

Metastore

在表或分区引发次要/轻度/minor紧缩的差量目录数目。

hive.compactor.delta.pct.threshold

0.1

Metastore

触发一个主要/深度/major紧缩任务的增量文件相对基础文件大小的百分比。1 = 100%,默认0.1 = 10%。

hive.compactor.abortedtxn.threshold

1000

Metastore

触发一个主要/深度/major紧缩任务的涉及给定表或分区的中止事务数。

hive.compactor.max.num.delta

500

Metastore

在单个紧缩作业中试图处理增量文件的最大数量(从Hive1.3.0开始)。(注4)

hive.compactor.job.queue

“”(空字符串)

Metastore

用于指定将提交紧缩作业到Hadoop队列的名称。设置为空字符串,则由Hadoop选择队列(从Hive1.3.0开始)。

紧缩的历史记录

hive.compactor.history.retention.succeeded

3

Metastore

要在历史记录中保留的成功紧缩条目的数量(每个分区)。

hive.compactor.history.retention.failed

3

Metastore

要在历史记录中保留的紧缩失败条目的数量(每个分区)。

hive.compactor.history.retention.attempted

2

Metastore

要在历史记录中保留的尝试紧缩条目的数量(每个分区)。

hive.compactor.initiator.failed.compacts.threshold

2

Metastore

对给定分区紧缩连续失败的数目,在此之后,启动器(Initiator)将停止自动调度紧缩。此时,仍然可以使用ALTER TABLE来启动紧缩。一旦手动启动的紧缩成功,就恢复自动启动的紧缩。

请注意,这个值必须小于hive.compactor.history.retention.failed。

hive.compactor.history.reaper.interval

2M

Metastore

控制清除compactions历史记录的进程多久运行一次。

 

  注1: hive.txn.max.open.batch控制流代理(如Flume或Storm)同时打开的事务。然后,流代理将该数量的条目写入单个文件(每个Flume代理或Storm bolt)。因此,增加此值会减少流代理创建的增量文件的数量。但它也会增加Hive在任何给定时间必须跟踪的已打开事务的数量,这可能会对读取性能产生负面影响。

  注2:工作线程生成MapReduce作业以执行紧缩。它们自己不执行紧缩。增加工作者线程的数量将减少需要紧缩的表或分区的时间。它也将增加Hadoop集群上的后台负载,因为更多MapReduce作业要在后台运行。每次紧缩都可以处理一个分区(如果没有分区,则是整个表)。

  注3: 减小该值将减少需要紧缩的表或分区启动紧缩所需的时间。然而,检查是否需要紧缩需要对每个表或分区调用NameNode,以确认每个表或分区自上一次主要/深度/major紧缩以来是否进行了事务处理。因此,降低此值将增加NameNode的负载。

  注4: 如果紧缩程序检测到有非常多的增量文件,它就首先运行几个小的部分紧缩(在当前顺序中),然后执行实际请求的紧缩。

  注5: 如果该值不是相同的,则活动事务可能被确定为“timed out(超时)”并因此中止。这还将导致诸如“没有这样的事务(No such transaction)...”、“没有这样的锁(No such lock)...”之类的错误。

7.2、 为INSERT,UPDATE,DELETE设置的参数

  除了上面列出的新参数,现有的一些为支持INSERT ... VALUES,UPDATE 和  DELETE需要而设置的参数。

hive.support.concurrency    true(默认为false)

hive.enforce.bucketing      true(默认为false)(从Hive2.0不再需要)

hive.exec.dynamic.partition.mode    nonstrict不严格的(默认为strict严格的)

7.3、 为紧缩设置的参数

  如果您的系统中的数据不属于Hive用户(即运行Hive Metastore的用户),那么Hive需要以数据拥有者的身份运行才能执行紧缩操作。如果您已经设置了HiveServer 2模拟用户,那么唯一要做的额外工作就是确保Hive在运行Hive Metastore的主机上有模拟用户的权利。这是通过将主机名添加到Hadoop的core-site.xml文件中的hadoop.proxyuser.hive.host实现的,如果您还没有这样做,那么需要配置Hive作为代理用户,这要求您为运行Hive Metastore的用户设置keytab,并将hadoop.proxyuser.hive.host和hadoop.proxyuser.hive.group添加到Hadoop的core-site.xml文件中。

  请参阅您的Hadoop版本中关于安全模式的Hadoop文档(例如,对于Hadoop2.5.1,请参阅Hadoop的安全模式)。

八、表属性

  从Hive 0.14.0开始,如果一个表用于ACID写入(INSERT、UPDATE、DELETE),那么必须在该表中设置表属性“transactional=true”。注意,一旦表已被经由TBLPROPERTIES(“transactional=true”)定义为ACID表,它不能被转换回非ACID表,即不允许改变为TBLPROPERTIES(“transactional=false”)。此外,在运行任何查询之前,必须在hive-site.xml或会话开始时将hive.txn.Manager设置为org.apache.hadoop.hive.ql.lockmgr.DbTxnManager。如果不这样的话,插入将以旧的样式进行;更新和删除将在hive-11716之前被禁止。因为不允许在没有DbTxnManager的ACID表上进行Hive-11716操作。无论如何,这也不适用于Hive 0.13.0。

  如果表所有者不希望系统自动确定何时紧缩,则可以设置表属性“NO_AUTO_COMPACTION”。这将阻止所有自动紧缩。仍然可以使用ALTER Table /Partition Compact语句进行手动紧缩。

  在创建或更改表时,使用TBLPROPERTIES子句设置表属性,如Hive数据定义语言的CREATE Table和ALTER Table PROPERTIES部分所述。在Hive版本0.x和1.0中,表属性“transactional”和“NO_AUTO_COMPACTION”区分大小写,但从版本1.1.0(hive-8308)开始,它们是不区分大小写的。

  更多的与紧缩相关的选项可以通过与Hive 1.3.0和2.1.0的TBLPROPERTIES来设置。它们可以通过CREATE TABLE设置在表级别属性,也可以通过ALTER TABLE/Partition COMPACT在请求级别上设置。

  这些用于覆盖仓库/表范围的设置。例如,要覆盖MR属性以影响紧缩作业,可以在CREATE TABLE语句中或通过ALTER TABLE显式启动紧缩时,添加"compactor.<mr property name>=<value>"。这里所述的" <mr property name>=<value>"将设置在紧缩MR作业的Jobconf上。类似地," tblprops.<prop name>=<value>"可用于设置/覆盖集群上所能解释的任何表属性代码。最后," compactorthreshold.<prop name>=<value>"可用于替代来自"新的事务配置参数"中以".threshold"结尾的属性,在由系统触发compact时进行控制。

示例:

例如:在TBLPROPERTIES中设置表级别的紧缩选项

CREATE TABLE table_name (
  id                int,
  name              string
)
CLUSTERED BY (id) INTO 2 BUCKETS STORED AS ORC
TBLPROPERTIES ("transactional"="true",
  "compactor.mapreduce.map.memory.mb"="2048",                   -- 指定紧缩map作业的属性
  "compactorthreshold.hive.compactor.delta.num.threshold"="4",  -- 如果有超过4个增量目录,则触发轻度紧缩
  "compactorthreshold.hive.compactor.delta.pct.threshold"="0.5" -- 如果增量文件的大小与基础文件的大小的比率大于50%,则触发深度紧缩
);

 例如:在TBLPROPERTIES中设置请求级别的紧缩选项

ALTER TABLE table_name COMPACT 'minor'
   WITH OVERWRITE TBLPROPERTIES ("compactor.mapreduce.map.memory.mb"="3072");  -- 指定紧缩map作业的属性

ALTER TABLE table_name COMPACT 'major'
   WITH OVERWRITE TBLPROPERTIES ("tblprops.orc.compress.size"="8192");         -- 更改任何其他Hive表属性
 
 

转载于:https://www.cnblogs.com/fanzhenyong/p/9775713.html

1. HIVE结构 Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数 据提取转化加载 (ETL),这是一种可以存储、 查询和分析存储在 Hadoop 中的大规模数据的 机制。 Hive 定义了简单的类 SQL 查询语言,称为 QL,它允许熟悉 SQL 的用户查询数据。 同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理 内建的 mapper 和 reducer 无法完成的复杂的分析工作。 1.1HIVE 架构 Hive 的结构可以分为以下几部分: 用户接口:包括 CLI, Client, WUI 元数据存储。通常是存储在关系数据库如 mysql, derby 中 6 解释器、编译器、优化器、执行器 Hadoop:用 HDFS 进行存储,利用 MapReduce 进行计算 1、 用户接口主要有三个: CLI,Client 和 WUI。其中最常用的是 CLI , Cli 启动的时候, 会同时启动一个 Hive 副本。 Client 是 Hive 的客户端,用户连接至 Hive Server 。 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点,并且在该节点启动 Hive Server 。 WUI 是通过浏览器访问 Hive 。 2、 Hive 将元数据存储在数据库中,如 mysql 、 derby 。 Hive 中的元数据包括的名字, 的列和分区及其属性,的属性(是否为外部等),的数据所在目录等。 3、 解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及 查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。 4、 Hive 的数据存储在 HDFS 中,大部分的查询由 MapReduce 完成(包含 * 的查询,比 如 select * from tbl 不会生成 MapRedcue 任务)。 1.2Hive 和 Hadoop 关系 Hive 构建在 Hadoop 之上, HQL 中对查询语句的解释、优化、生成查询计划是由 Hive 完成的 所有的数据都是存储在 Hadoop 中 查询计划被转化为 MapReduce 任务,在 Hadoop 中执行(有些查询没有 MR 任 务,如: select * from table ) Hadoop和 Hive 都是用 UTF-8 编码的 7 1.3Hive 和普通关系数据库的异同 Hive RDBMS 查询语言 HQL SQL 数据存储 HDFS Raw Device or Local FS 索引 无 有 执行 MapReduce Excutor 执行延迟 高 低 处理数据规模 大 小 1. 查询语言。由于 SQL 被广泛的应用在数据仓库中,因此,专门针对 Hive 的特性设计 了类 SQL 的查询语言 HQL。熟悉 SQL 开发的开发者可以很方便的使用 Hive 进行开 发。 2. 数据存储位置。 Hive 是建立在 Hadoop 之上的,所有 Hive 的数据都是存储在 HDFS 中 的。而数据库则可以将数据保存在块设备或者本地文件系统中。 3. 数据格式。 Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数 据格式需要指定三个属性:列分隔符(通常为空格、” t ”、” x001″)、行分隔符 (” n”)以及读取文件数据的方法( Hive 中默认有三个文件格式 TextFile , SequenceFile 以及 RCFile )。由于在加载数据的过程中,不需要从用户数据格式到 Hive 定义的数据格式的转换,因此, Hive 在加载的过程中不会对数据本身进行任何修 改,而只是将数据内容复制或者移动到相应的 HDFS 目录中。而在数据库中,不同的数 据库有不同的存储引擎,定义了自己的数据格式。所有数据都会按照一定的组织存储, 因此,数据库加载数据的过程会比较耗时。 4. 数据更新。由于 Hive 是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。 因此, Hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。 而数据库中的数据通常是需要经常进行修改的,因此可以使用 INSERT INTO ... VALUES 添加数据,使用 UPDATE ... SET 修改数据。 5. 索引。之前已经说过, Hive 在加载数据的过程中不会对数据进行任何处理,甚至不会 对数据进行扫描,因此也没有对数据中的某些 Key 建立索引。 Hive 要访问数据中满足 条件的特定值时,需要暴力扫描整个数据,因此访问延迟较高。由于 MapReduce 的引 入, Hive 可以并行访问数据,因此即使没有索引,对于大数据量的访问, Hive 仍然 可以体现出优势。数据库中,通常会针对一个或者几个列建立索引,因此对于少量的特 定条件的数据的访问,数据库可以有很高的效率,较低的延迟。由于数据的访问延迟较 高,决定了 Hive 不适合在线数据查询。 6. 执行。 Hive 中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的(类似 select * from tbl 的查询不需要 MapReduce)。而数据库通常有自己的执行引擎。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值