Hive扩展功能(八)--表的索引

软件环境:

linux系统: CentOS6.7
Hadoop版本: 2.6.5
zookeeper版本: 3.4.8


主机配置:

一共m1, m2, m3这三部机, 每部主机的用户名都为centos
192.168.179.201: m1 
192.168.179.202: m2 
192.168.179.203: m3 

m1: Zookeeper, Namenode, DataNode, ResourceManager, NodeManager, Master, Worker
m2: Zookeeper, Namenode, DataNode, ResourceManager, NodeManager, Worker
m3: Zookeeper, DataNode, NodeManager, Worker

资料

官方资料:
    https://cwiki.apache.org/confluence/display/Hive/IndexDev
    https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL#LanguageManualDDL-Create/Drop/AlterIndex



一. 编辑hive-site.xml文件
<property>
    <name>hive.optimize.index.filter</name>
    <value>true</value>
</property>
<property>
    <name>hive.optimize.index.groupby</name>
    <value>true</value>
</property>
<property>
    <name>hive.index.compact.file.ignore.hdfs</name>
    <value>true</value>
</property>





二. 创建Hive表索引
官方资料:
    https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Indexing

1.创建/构造, 显示, 删除索引:
create index table01_index on table table01 (column2) as 'compact';
show index on table01;
drop index table01_index on table01;

2.创建时重构, 格式化显示 (with column names), 删除索引:
create index table02_index on table table02 (column3) as 'compact' with deferred rebuild;
alter index table02_index on table2 rebuild;
show formatted index on table02;
drop index table02_index on table02;

3.创建索引视图, 构建, 显示, 删除:
create index table03_index on table table03 (column4) as 'bitmap' with deferred rebuild;
alter index table03_index on table03 rebuild;
show formatted index on table03;
drop index table03_index on table03;
4.在新表中创建索引:
create index table04_index on table table04 (column5) as 'compact' with deferred rebuild in table table04_index_table;

5.创建索引以RCFile的存储格式:
create index table05_index on table table05 (column6) as 'compact' stored as RCFile;

6.创建索引以TextFile的存储格式:
create index table06_index on table table06 (column7) as 'compact' row format delimited fields terminated by '\t' stored as textFile;

7.创建索引和索引的属性:
create index table07_index on table table07 (column8) as 'COMPACT' idxproperties ("prop1"="value1", "prop2"="value2");

8.创建索引和表的属性:
create index table08_index on table table08 (column9) as 'compact' tblproperties ("prop3"="value3", "prop4"="value4");

9.索引如果存在则删除:
drop index if exists table09_index on table09;

10.重构一个分区的数据:
alter index table10_index on table10 partition (columnX='valueQ', columnY='valueR') rebuild;





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Confluent Platform是一个开源的分布式流处理平台,基于Apache Kafka。它提供了一套完整的工具和组件,可以帮助用户构建可扩展、高性能的实时数据集成和流处理应用程序。 Elasticsearch(简称ES)是一个高效的分布式搜索和分析引擎,用于实时地索引和搜索大规模的数据集。 在将Confluent Platform与Elasticsearch集成时,可以使用Kafka Connect插件实现数据的实时同步。Kafka Connect是一种可插拔的框架,可以实现数据源与数据目标之间的连接和数据传输。 要将Confluent Platform与Hive集成,首先需要安装Kafka Connect的Hive插件。该插件可在Kafka Connect的插件目录中找到并进行安装。安装完成后,需要进行一些配置和设置,包括连接到Hive的认证凭据、数据库连接信息等。 一旦Kafka Connect的Hive插件配置完毕,就可以使用Kafka Connect的Hive连接器将数据从Kafka主题实时地同步到Hive中。连接器会监控Kafka主题中的数据变化,并将新增、更新或删除的数据实时地写入到Hive中。同时,连接器还支持根据需要进行数据转换和映射,以适应Hive的结构和模式。 通过将Confluent Platform与Elasticsearch和Hive的集成,可以实现流处理和实时数据同步的功能。这样,用户可以从Kafka主题中读取和处理实时数据,并将其同步到Elasticsearch和Hive中,以进行更深入的搜索、分析和查询。同时,这种集成还提供了可扩展的、高性能的数据流处理解决方案,满足了实时数据集成和分析的需求。 ### 回答2: 在将Confluent平台和Elasticsearch(ES)进行同步至Hive的过程中,我们需要使用Kafka Connect来实现这个目标。Kafka Connect是一个可扩展的框架,可以用于将各种数据源连接到Kafka集群,并进行数据的传输和转换。 首先,我们需要在Confluent平台上配置Kafka Connect,以便能够连接到Elasticsearch和Hive。这可以通过修改Kafka Connect的配置文件来实现。我们需要指定Elasticsearch和Hive的连接信息,例如主机名、端口和凭证等。 一旦配置完成,我们可以创建一个Kafka Connect任务,它将负责将Elasticsearch中的数据流式传输到Hive中。任务的配置文件将包含从Elasticsearch读取数据的配置和将数据写入Hive的配置。我们可以指定要同步的索引、类型和查询条件,以及Hive的结构和位置。 当任务启动后,Kafka Connect将会从Elasticsearch中读取数据,并将其转换为适合Hive的格式。然后,它会将数据写入Hive,从而实现数据的同步。我们可以使用Kafka Connect的监控工具来跟踪任务的进展和性能。 需要注意的是,在进行同步之前,我们必须确保Elasticsearch和Hive之间的数据结构兼容。如果两者之间存在字段不匹配或数据类型不兼容等问题,我们需要在同步过程中进行数据转换或清洗。 总结起来,将Confluent平台和Elasticsearch同步至Hive的过程中,我们需要使用Kafka Connect来连接两者,并配置合适的参数。然后,创建一个Kafka Connect任务,将Elasticsearch中的数据转换为Hive的格式,并实现数据的传输和同步。这样,我们可以在Hive中使用Confluent平台和Elasticsearch中的数据进行分析和查询。 ### 回答3: Confluent Platform是一个开源的实时流数据平台,其中包括了Kafka,一个分布式流处理平台。而Elasticsearch(简称ES)是一个分布式全文搜索和分析引擎。Hive是一个基于Hadoop的数据仓库工具。 要将Confluent Platform中的数据同步至Hive,可以采用以下步骤: 1. 创建Hive:首先,需要在Hive中创建一个来存储从Confluent Platform中同步的数据。可以使用Hive的建语句来定义的结构和类型。 2. 连接Kafka和ES:借助Confluent Platform的Kafka Connect功能,可以轻松地将Kafka和ES连接起来。Kafka Connect是Kafka的一个插件,它提供了连接Kafka和其他数据存储系统的功能。 3. 配置Kafka Connect:配置Kafka Connect的连接器,使其能够将Kafka中的数据发送到ES。可以通过编辑Kafka Connect配置文件来指定连接器的配置参数,如Kafka主题、ES索引和类型等。 4. 启动Kafka Connect:启动Kafka Connect,让其开始从Kafka中读取数据,并将数据写入ES。可以使用命令行工具来启动Kafka Connect。 5. 配置Hive和ES连接:在Hive中配置ES连接,以便可以从ES中读取数据。可以使用Hive的插件或者自定义函数来实现与ES的交互。 6. 创建数据管道:在Hive中创建一个数据管道,将从ES读取的数据导入Hive中。可以使用Hive的INSERT INTO语句来将数据从ES插入到Hive中。 通过以上步骤,就可以将Confluent Platform中的数据同步至Hive。数据会从Kafka通过Kafka Connect传输到ES,然后通过Hive和ES的连接,将数据导入到Hive中。这样就实现了数据的同步和迁移。同时,可以根据具体需求进行调整和优化,以满足业务的实时数据处理和分析需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值