3.HBase详解

HBase 进阶

架构原理

1)StoreFile
保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的。

2)MemStore
写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的 HFile。

3)WAL (Write-Ahead logs 即图中Hlog)
由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件
中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

4)Store

​ HFile存储在Store中,一个Store对应HBase表中的一个列族(注:一个列族可以对应多个Store)。

5)HFile

​ 这是在磁盘上保存原始数据的实际的物理文件,是实际的存储文件。StoreFile是以Hfile的形式存储在HDFS的。

写流程

写流程:
1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。
2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。
3)与目标 Region Server 进行通讯;
4)将数据顺序写入(追加)到 WAL;
5)将数据写入对应的 MemStore,数据会在 MemStore 进行排序;
6)向客户端发送 ack;
7)等达到 MemStore 的刷写时机后,将数据刷写到 HFile。

MemStore Flush

MemStore 刷写时机:

  1. 当某个 memstroe 的大小达到了** hbase.hregion.memstore.flush.size(默认值 128M)**,其 所在 region 的所有 memstore 都会刷写
    当 memstore 的大小达到了hbase.hregion.memstore.flush.size(默认值 128M)× hbase.hregion.memstore.block.multiplier(默认值 4)时,会阻止继续往该 memstore 写数据。

  2. 当 region server 中 memstore 的总大小达到 java_heapsize × hbase.regionserver.global.memstore.size(默认值 0.4) × hbase.regionserver.global.memstore.size.lower.limit(默认值 0.95),region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写。直到 region server中所有 memstore 的总大小减小到上述值以下。

  3. 当 region server 中 memstore 的总大小达到java_heapsize × hbase.regionserver.global.memstore.size(默认值 0.4)时,会阻止继续往所有的 memstore 写数据。

  4. 到达自动刷写的时间,也会触发 memstore flush。自动刷新的时间间隔由该属性进行
    配置** hbase.regionserver.optionalcacheflushinterval(默认 1 小时)**。

  5. 当 WAL 文件的数量超过** hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到 WAL 文件数量减小到 hbase.regionserver.max.log** 以下(该属性名已经废弃,
    现无需手动设置,最大值为 32)

读流程

读流程
1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。
2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。
3)与目标 Region Server 进行通讯;
4)分别在 Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。
5) 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为 64KB)缓存到Block Cache。
6)将合并后的最终结果返回给客户端。

StoreFile Compaction

​ 由于memstore每次刷写都会生成一个新的HFile,且同一个字段的不同版本(timestamp)和不同类型(Put/Delete)有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile。为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。
​ Compaction 分为两种,分别是 Minor Compaction Major Compaction。Minor Compaction会将临近的若干个较小的 HFile 合并成一个较大的 HFile,但**不会**清理过期和删除的数据。Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且清理掉过期和删除的数据

Region Split

​ 默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。

Region Split 时机:

  1. 当1个region中的某个Store下所有StoreFile的总大小超过hbase.hregion.max.filesize
    该 Region 就会进行拆分(0.94 版本之前)。

  2. 当 1 个 region 中 的 某 个 Store 下所有 StoreFile 的 总 大 小 超 过 Min(R^2 *
    “hbase.hregion.memstore.flush.size”,hbase.hregion.max.filesize")
    ,该 Region 就会进行拆分,其中 R 为当前 Region Server 中属于该 Table 的个数(0.94 版本之后)。

HBase API

环境准备

新建项目后在 pom.xml 中添加依赖:

<dependency>
	<groupId>org.apache.hbase</groupId>
	<artifactId>hbase-server</artifactId>
	<version>1.3.1</version>
</dependency>

<dependency>
	<groupId>org.apache.hbase</groupId>
    <artifactId>hbase-client</artifactId>
	<version>1.3.1</version>
</dependency>

HBaseAPI

获取 Configuration 和 Admin 对象

private static Connection connection = null;
    private static Admin admin = null;

    static {
        try {
            // 1. 获取配置文件信息
            Configuration configuration = HBaseConfiguration.create();
            // 记得配好自己的hosts文件
            configuration.set("hbase.zookeeper.quorum","h1,h2,h3");

            // 2. 创建连接对象
            connection = ConnectionFactory.createConnection(configuration);

            // 3. 创建Admin对象
            admin = connection.getAdmin();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

DDL

判断表是否存在
// 1. 判断表是否存在
public static boolean isTableExist(String tableName) throws IOException {

    // 判断表是否存在
    boolean exists = admin.tableExists(TableName.valueOf(tableName));

    // 返回结果
    return exists;
}
创建表
// 2. 创建表
public static void createTable(String tableName, String... cfs) throws IOException {
    // 1.判断是否存在列族信息
    if (cfs.length <= 0){
        System.out.println("请设置列族信息!");
        return;
    }

    // 2.判断表是否存在
    if (isTableExist(tableName)){
        System.out.println(tableName+"表已存在!");
        return;
    }

    // 3.创建表描述器
    HTableDescriptor hTableDescriptor = new HTableDescriptor(TableName.valueOf(tableName));

    // 4.循环添加列族信息
    for (String cf: cfs) {
        // 5.创建列族描述器
        HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(cf);

        // 6.添加具体的列族信息
        hTableDescriptor.addFamily(hColumnDescriptor);
    }

    // 7.创建表
    admin.createTable(hTableDescriptor);
}
删除表
// 3.删除表
public static void dropTable(String tableName) throws IOException {
    // 1.判断表是否存在
    if (!isTableExist(tableName)){
        System.out.println("表不存在");
        return;
    }

    // 2.使表下线
    admin.disableTable(TableName.valueOf(tableName));

    // 3.删除表
    admin.deleteTable(TableName.valueOf(tableName));

}
创建命名空间
// 4. 创建命名空间
public static void createNameSpace(String ns){
    // 1.创建命名空间描述器
    NamespaceDescriptor namespaceDescriptor = NamespaceDescriptor.create(ns).build();

    // 2.创建命名空间
    try {
        admin.createNamespace(namespaceDescriptor);
    } catch (NamespaceExistException e) {
        System.out.println(ns + " 命名空间已存在");
    }
    catch (IOException e) {
        e.printStackTrace();
    }
}

DML

插入数据
// 5. 向表插入数据
public static void putData(String tableName,String rowKey,String cf,String cn,String value) throws IOException {
    // 1. 获取表对象
    Table table = connection.getTable(TableName.valueOf(tableName));

    // 2. 创建Put对象
    Put put = new Put(Bytes.toBytes(rowKey));

    // 3. 给put对象赋值
    put.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cn),Bytes.toBytes(value));

    // 4. 插入数据
    table.put(put);

    // 5. 关闭表连接
    table.close();
}
查数据 (get)
// 6.获取数据(get)
    public static void getData(String tableName,String roeKey,String cf,String cn) throws IOException {
        // 1. 获取表对象
        Table table = connection.getTable(TableName.valueOf(tableName));

        // 2. 创建Get对象
        Get get = new Get(Bytes.toBytes(roeKey));

        // 2.1 指定获取的列族
//        get.addFamily(Bytes.toBytes(cf));

        // 2.2 指定列族和列
        get.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cn));

        // 2.3 设置获取数据的版本数
        get.setMaxVersions(3);

        // 3. 获取数据
        Result result = table.get(get);

        // 4. 解析result并打印
        for (Cell cell : result.rawCells()) {
            // 5. 打印数据
            System.out.println("CF: " + Bytes.toString(CellUtil.cloneFamily(cell)) +
                    ",CN: " + Bytes.toString(CellUtil.cloneQualifier(cell)) +
                    ",Value: " + Bytes.toString(CellUtil.cloneValue(cell)));
        }

        // 5. 关闭表连接
        table.close();
    }
查数据 (scan)
// 7. 获取数据(scan)
public static void scanTable(String tableName) throws IOException {
    // 1. 获取表对象
    Table table = connection.getTable(TableName.valueOf(tableName));

    // 2. 创建scan对象
    Scan scan = new Scan();

    // 3. 扫描表
    ResultScanner resultScanner = table.getScanner(scan);

    // 4. 解析resultScanner
    for (Result result : resultScanner){
        // 5. 解析result并打印
        for (Cell cell : result.rawCells()){
            // 6. 打印数据
            System.out.println("RK:"+Bytes.toString(CellUtil.cloneRow(cell)) +
                    ",CF: " + Bytes.toString(CellUtil.cloneFamily(cell)) +
                    ",CN: " + Bytes.toString(CellUtil.cloneQualifier(cell)) +
                    ",Value: " + Bytes.toString(CellUtil.cloneValue(cell)));
        }
    }

    // 7. 关闭连接
    table.close();
}
删除数据
// 8.删除数据
public static void deleteData(String tableName,String rowKey,String cf,String cn) throws IOException {
    // 1. 获取表对象
    Table table = connection.getTable(TableName.valueOf(tableName));

    // 2. 构建删除对象
    Delete delete = new Delete(Bytes.toBytes(rowKey));

    // 2.1 设置删除的列
    delete.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cn));

    // 3. 执行删除操作
    table.delete(delete);

    // 4. 关闭连接
    table.close();
}

关闭资源

public static void close(){
    if (admin != null){
        try {
            admin.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    if (connection != null){
        try {
            connection.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

main方法

public static void main(String[] args) throws IOException {
    // 1.测试表是否存在
    System.out.println("测试stu表是否存在:"+isTableExist("stu"));

    // 2. 创建表测试
    System.out.println("创建stu表");
    createTable("stu","info1","info2");
    System.out.println("检验stu表是否存在:"+isTableExist("stu"));

    // 3.删除表测试
    System.out.println("删除stu表");
    dropTable("stu");
    System.out.println("检验stu表是否存在:"+isTableExist("stu"));

    // 4.创建命名空间测试
    System.out.println("创建命名空间测试");
    createNameSpace("liuxu");

    // 5.创建数据测试
    putData("stu","1001","info1","name","liu");

    // 6.获取单行数据
    getData("stu","1001","info1","name");

    // 7.测试扫描数据
    scanTable("stu");

    // 8.测试删除
    deleteData("stu","1001","name","liu");

    // 关闭资源
    close();
}

MapReduce

通过 HBase 的相关 JavaAPI,我们可以实现伴随 HBase 操作的 MapReduce 过程,比如使用MapReduce 将数据从本地文件系统导入到 HBase 的表中,比如我们从 HBase 中读取一些原始数据后使用 MapReduce 做数据分析。

官方 HBase-MapReduce

1.查看 HBase 的 MapReduce 任务的执行

bin/hbase mapredcp

这里可以看到执行所需jar包的位置

2.环境变量

在 hadoop-env.sh 中配置:(注意:在 for 循环之后配)

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/root/app/hbase/lib/*

配好之后需要重启一下hadoop集群(重启之前先把hbase stop掉)(三台都要)

3.运行官方的 MapReduce 任务

案例一:统计 Student 表中有多少行数据

[root@h1 hbase]# /root/app/hadoop-2.7.7/bin/yarn jar lib/hbase-server-1.3.1.jar rowcounter student

hbase现在student表是有2条数据的

在这里插入图片描述

运行结果

案例二:使用 MapReduce 将本地数据导入到 HBase

1)在本地创建一个 tsv 格式的文件:fruit.tsv

1001	Apple	Red
1002	Pear	Yellow
1003	Pineapple	Yellow

2)创建 Hbase 表

Hbase(main):001:0> create 'fruit','info'

3)上传 fruit.tsv 文件

hadoop fs -put fruit.tsv /

4)执行 MapReduce 到 HBase 的 fruit 表中

[root@h1 hbase]# /root/app/hadoop-2.7.7/bin/yarn jar lib/hbase-server-1.3.1.jar importtsv \
-Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:color fruit \
hdfs://h1:9000/fruit.tsv

5)使用 scan 命令查看导入后的结果

Hbase(main):008:0> scan 'fruit'

自定义 HBase-MapReduce1

目标:将 fruit 表中的一部分数据,通过 MR 迁入到 fruit_mr 表中。
分步实现:
1.构建 ReadFruitMapper 类,用于读取 fruit 表中的数据

package hbase.mr1;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

public class FruitMapper extends Mapper<LongWritable, Text,LongWritable,Text> {
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        context.write(key,value);
    }
}

2. 构建 WriteFruitMRReducer 类,用于将读取到的 fruit 表中的数据写入到 fruit_mr 表

package hbase.mr1;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.mapreduce.TableReducer;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;

import java.io.IOException;

public class FruitReducer extends TableReducer<LongWritable, Text, NullWritable> {

    @Override
    protected void reduce(LongWritable key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
        // 1.遍历values
        for (Text value : values){
            // 2.获取每一行的数据
            String[] fields = value.toString().split("\t");

            // 3.构建Put对象
            Put put = new Put(Bytes.toBytes(fields[0]));

            // 4.给Put对象赋值
            put.addColumn(Bytes.toBytes("info"),Bytes.toBytes("name"),Bytes.toBytes(fields[1]));
            put.addColumn(Bytes.toBytes("info"),Bytes.toBytes("color"),Bytes.toBytes(fields[2]));

            // 5.写出
            context.write(NullWritable.get(),put);
        }
    }
}

3.构建FruitReducer类

package hbase.mr1;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

public class FruitDriver implements Tool {
    // 定义一个Configuration
    private Configuration configuration = null;

    public int run(String[] args) throws Exception {

        // 1.获取Job对象
        Job job = Job.getInstance(configuration);

        // 2.设置驱动类
        job.setJarByClass(FruitDriver.class);

        // 3.设置Mapper输出的KV类型
        job.setMapperClass(FruitMapper.class);
        job.setMapOutputKeyClass(LongWritable.class);
        job.setMapOutputValueClass(Text.class);

        // 4.设置Reducer类
        TableMapReduceUtil.initTableReducerJob(args[1],FruitReducer.class,job);

        // 5.设置输入参数
        FileInputFormat.setInputPaths(job,new Path(args[0]));

        // 6.提交任务
        boolean result = job.waitForCompletion(true);

        return result?0:1;
    }

    public void setConf(Configuration conf) {
        configuration = conf;
    }

    public Configuration getConf() {
        return null;
    }

    public static void main(String[] args) {


        try {
            Configuration configuration = new Configuration();
            int run = ToolRunner.run(configuration, new FruitDriver(), args);
            System.exit(run);

        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

4.打包

5.上传到集群去运行

yarn jar HBase-1.0-SNAPSHOT.jar hbase.mr1.FruitDriver /fruit.tsv fruit

自定义 Hbase-MapReduce2

将hbase中fruit1表里面所有的name属性的值拿出来导入到fruit2表中去

1.Fruit2Mapper类

package hbase.mr2;

import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapper;
import org.apache.hadoop.hbase.util.Bytes;

import java.io.IOException;

public class Fruit2Mapper extends TableMapper<ImmutableBytesWritable, Put> {
    @Override
    protected void map(ImmutableBytesWritable key, Result value, Context context) throws IOException, InterruptedException {
        // 构建Put对象
        Put put = new Put(key.get());

        // 1.获取数据
        for (Cell cell : value.rawCells()) {
            // 2.判断当前的cell是否为Name列
            if ("name".equals(Bytes.toString(CellUtil.cloneQualifier(cell)))){
                // 3.给Put对象赋值
                put.add(cell);
            }
        }

        // 4.写出
        context.write(key,put);
    }
}

2.Fruit2Reducer类

package hbase.mr2;

import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableReducer;
import org.apache.hadoop.io.NullWritable;

import java.io.IOException;

public class Fruit2Reducer extends TableReducer<ImmutableBytesWritable, Put, NullWritable> {
    @Override
    protected void reduce(ImmutableBytesWritable key, Iterable<Put> values, Context context) throws IOException, InterruptedException {
        // 遍历写出
        for (Put put : values){
            context.write(NullWritable.get(),put);
        }
    }
}

3.Fruit2Driver类

package hbase.mr2;


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

public class Fruit2Driver implements Tool {
    // 定义一个Configuration
    private Configuration configuration = null;

    public int run(String[] args) throws Exception {

        // 1.获取Job对象
        Job job = Job.getInstance(configuration);

        // 2.设置驱动类
        job.setJarByClass(Fruit2Driver.class);

        // 3.设置Mapper输出的KV类型
        TableMapReduceUtil.initTableMapperJob(args[0],
                new Scan(),
                Fruit2Mapper.class,
                ImmutableBytesWritable.class,
                Put.class,
                job);

        // 4.设置Reducer输出的表
        TableMapReduceUtil.initTableReducerJob(args[1], Fruit2Reducer.class,job);

        // 5.提交任务
        boolean result = job.waitForCompletion(true);

        return result?0:1;
    }

    public void setConf(Configuration conf) {
        configuration = conf;
    }

    public Configuration getConf() {
        return null;
    }

    public static void main(String[] args) {
        args = new String[] {"fruit1","fruit2"};

        try {
            Configuration configuration = HBaseConfiguration.create();
            int run = ToolRunner.run(configuration, new Fruit2Driver(), args);
            System.exit(run);

        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

4.将hbase下conf目录中的hbase-site.xml文件拷贝到项目中的resources目录下,然后配置一下lo4j文件,显示日志,就可以直接在本地执行了

与 Hive 的集成

HBase 与 Hive 的对比

1.Hive
(1) 数据仓库
Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方便使用 HQL 去管理查询。

(2) 用于数据分析、清洗
Hive 适用于离线的数据分析和清洗,延迟较高。

(3) 基于 HDFS、MapReduce
Hive 存储的数据依旧在 DataNode 上,编写的 HQL 语句终将是转换为 MapReduce 代码执行。

2.HBase
(1) 数据库
是一种面向列族存储的非关系型数据库。

(2) 用于存储结构化和非结构化的数据
适用于单表非关系型数据的存储,不适合做关联查询,类似 JOIN 等操作。

(3) 基于 HDFS
数据持久化存储的体现形式是 HFile,存放于 DataNode 中,被 ResionServer 以 region 的形式进行管理。

(4) 延迟较低,接入在线业务使用
面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问
速度。

HBase 与 Hive 集成使用

注:HBase 与 Hive 的集成在目前的两个版本中无法兼容。所以,我们只能重新编译:hive-hbase-handler-1.2.1.jar

环境准备
因为我们后续可能会在操作 Hive 的同时对 HBase 也会产生影响,所以 Hive 需要持有操作HBase 的 Jar,那么接下来拷贝 Hive 所依赖的 Jar 包(或者使用软连接的形式)。

ln -s $HBASE_HOME/lib/hbase-common-1.3.1.jar $HIVE_HOME/lib/hbase-common-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-server-1.3.1.jar $HIVE_HOME/lib/hbase-server-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-client-1.3.1.jar $HIVE_HOME/lib/hbase-client-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-protocol-1.3.1.jar $HIVE_HOME/lib/hbase-protocol-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-it-1.3.1.jar $HIVE_HOME/lib/hbase-it-1.3.1.jar
ln -s $HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/htrace-core-3.1.0-incubating.jar
ln -s $HBASE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-hadoop-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop-compat-1.3.1.jar

同时在 hive-site.xml 中修改 zookeeper 的属性,如下:

<property>
<name>hive.zookeeper.quorum</name>
<value>h1,h2,h3</value>
<description>The list of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>
</property>

<property>
<name>hive.zookeeper.client.port</name>
<value>2181</value>
<description>The port of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>
</property>

1.案例一
目标:建立 Hive 表,关联 HBase 表,插入数据到 Hive 表的同时能够影响 HBase 表。

分步实现:
(1) 在 Hive 中创建表同时关联 HBase

CREATE TABLE hive_hbase_emp_table(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'WITH SERDEPROPERTIES ("hbase.columns.mapping" = 
":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

提示:完成之后,可以分别进入 Hive 和 HBase 查看,都生成了对应的表

(2) 在 Hive 中创建临时中间表,用于 load 文件中的数据

提示:不能将数据直接 load 进 Hive 所关联 HBase 的那张表中

CREATE TABLE emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
row format delimited fields terminated by '\t';

(3) 向 Hive 中间表中 load 数据

7369	SMITH	CLERK	7902	1980-12-17	800.00		20
7499	ALLEN	SALESMAN	7698	1981-2-20	1600.00	300.00	30
7521	WARD	SALESMAN	7698	1981-2-22	1250.00	500.00	30
7566	JONES	MANAGER	7839	1981-4-2	2975.00		20
7654	MARTIN	SALESMAN	7698	1981-9-28	1250.00	1400.00	30
7698	BLAKE	MANAGER	7839	1981-5-1	2850.00		30
7782	CLARK	MANAGER	7839	1981-6-9	2450.00		10
7788	SCOTT	ANALYST	7566	1987-4-19	3000.00		20
7839	KING	PRESIDENT		1981-11-17	5000.00		10
7844	TURNER	SALESMAN	7698	1981-9-8	1500.00	0.00	30
7876	ADAMS	CLERK	7788	1987-5-23	1100.00		20
7900	JAMES	CLERK	7698	1981-12-3	950.00		30
7902	FORD	ANALYST	7566	1981-12-3	3000.00		20
7934	MILLER	CLERK	7782	1982-1-23	1300.00		10
hive> load data local inpath '/root/datas/emp.txt' into table emp;

(4) 通过 insert 命令将中间表中的数据导入到 Hive 关联 Hbase 的那张表中

hive> insert into table hive_hbase_emp_table select * from emp;

(5) 查看 Hive 以及关联的 HBase 表中是否已经成功的同步插入了数据
Hive:

hive> select * from hive_hbase_emp_table;

HBase:

Hbase> scan 'hbase_emp_table'

2.案例二
目标:在 HBase 中已经存储了某一张表 hbase_emp_table,然后在 Hive 中创建一个外部表来关联 HBase 中的 hbase_emp_table 这张表,使之可以借助 Hive 来分析 HBase 这张表中的数据。

分步实现:
(1) 在 Hive 中创建外部表

CREATE EXTERNAL TABLE relevance_hbase_emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'WITH SERDEPROPERTIES ("hbase.columns.mapping" = 
":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

(2) 关联后就可以使用 Hive 函数进行一些分析操作了

hive (default)> select * from relevance_hbase_emp;

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值