Spark3.X 读写 HBase2.X

我所使用的版本信息如下:

  • Spark 3.0.0
  • HBase 2.2.3
  • Scala 2.12
  • JDK 1.8

pom 依赖:

注意改成自己对应的版本。

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>
        
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>2.2.3</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-mapreduce</artifactId>
            <version>2.2.3</version>
        </dependency>
Spark 写入 HBase

我们先创建一个文件用于写入,文件类型无所谓,我这里将文件名取为:test.csv

city_name,province_name,total_amount,total_count,sequence,year,month
上海市,上海市,121773688,28456,1,2022,4
上海市,上海市,37040482,8635,1,2022,3
上海市,上海市,31189394,7429,1,2022,5
浙江省杭州市,浙江省,14136866,3344,1,2022,4
江苏省南京市,江苏省,12868037,2999,1,2022,4

写入代码文件示例:

import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.hbase.client._
import org.apache.hadoop.hbase.util.Bytes
import org.apache.hadoop.hbase.{HBaseConfiguration, NamespaceDescriptor, TableName}
import org.apache.spark.sql.{DataFrame, SparkSession}

object MyWriteHBase {

    // 创建一个全局的 HBaseConf
    private val hbaseConf: Configuration = HBaseConfiguration.create()
    // 连接对象
    hbaseConf.set("hbase.zookeeper.quorum","master,slave1,slave2")
    // 连接端口
    hbaseConf.set("hbase.zookeeper.property.clientPort","2181")
    // 跳过版本验证
    hbaseConf.set("hbase.default.for.version.skip","true")


    def main(args: Array[String]): Unit = {

        val spark: SparkSession = SparkSession.
                builder()
                .appName("MyWriteHBase")
                .master("local[*]")
                .getOrCreate()

        // 读取写入的测试数据集
        val dataFrame: DataFrame = spark.read.option("header", "true").csv("test.csv")

        // 创建连接对象
        val conn: Connection = ConnectionFactory.createConnection(hbaseConf)

        // TODO 在 HBase 中创建库表
        // 获取管理员权限
        val admin: Admin = conn.getAdmin
        // 判断表是否存在,demo 表示库名,order 表示表名
        val tableName: TableName = TableName.valueOf("demo:order")
        if(!admin.tableExists(tableName)){
            // 创建库
            val descriptor: NamespaceDescriptor = NamespaceDescriptor.create("demo").build()
            admin.createNamespace(descriptor)
            // 创建表对象
            val table: TableDescriptorBuilder = TableDescriptorBuilder.newBuilder(tableName)
            // 添加列族
            val columnFamilyDescriptor: ColumnFamilyDescriptor = ColumnFamilyDescriptorBuilder.newBuilder("info".getBytes()).build()
            // 将列族添加到表中
            table.setColumnFamily(columnFamilyDescriptor)
            // 创建表
            admin.createTable(table.build())
        }
        admin.close()
        conn.close()

        // TODO 写入数据

        // 指定列族
        val cloumnName = "info"

        dataFrame.rdd.foreachPartition(iter=>{
            // 创建连接对象
            val conn: Connection = ConnectionFactory.createConnection(hbaseConf)
            // 获取指定表连接
            val table: Table = conn.getTable(TableName.valueOf("demo:order"))

            iter.foreach(r=>{
                val put = new Put(Bytes.toBytes(UUID.randomUUID().toString)) // RowKey
                // 指定列族,列名,值
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("city_name"),Bytes.toBytes(r.getString(0)))
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("province_name"),Bytes.toBytes(r.getString(1)))
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("total_amount"),Bytes.toBytes(r.getString(2)))
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("total_count"),Bytes.toBytes(r.getString(3)))
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("sequence"),Bytes.toBytes(r.getString(4)))
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("year"),Bytes.toBytes(r.getString(5)))
                put.addColumn(Bytes.toBytes(cloumnName),Bytes.toBytes("month"),Bytes.toBytes(r.getString(6)))
                // 向 HBase 提交,如果遇到报错就关闭表连接
                Try(table.put(put)).getOrElse(table.close())
            })
            // 关闭连接
            conn.close()
            table.close()
        })


        spark.stop()

    }

}

Spark 读取 HBase
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.client._
import org.apache.hadoop.hbase.io.ImmutableBytesWritable
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.hadoop.hbase.util.Bytes
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession

object MyReadHBase {


    def main(args: Array[String]): Unit = {

        val spark: SparkSession = SparkSession.
                builder()
                .appName("MyReadHBase")
                .master("local[*]")
                .getOrCreate()

        // 创建一个全局的 HBaseConf
        val hbaseConf: Configuration = HBaseConfiguration.create()
        // 连接对象
        hbaseConf.set("hbase.zookeeper.quorum","master,slave1,slave2")
        // 连接端口
        hbaseConf.set("hbase.zookeeper.property.clientPort","2181")
        // 跳过版本验证
        hbaseConf.set("hbase.default.for.version.skip","true")
        // 指定连接表
        hbaseConf.set(TableInputFormat.INPUT_TABLE,"demo:order")

        // 获取 HBase 数据 rdd
        val hbaseRdd: RDD[(ImmutableBytesWritable, Result)] = spark.sparkContext.newAPIHadoopRDD(hbaseConf, classOf[TableInputFormat], classOf[ImmutableBytesWritable],
            classOf[Result])

        // TODO 读取数据
        // 指定列族
        val cloumnName = "info"

        import spark.implicits._

        hbaseRdd.map{
            case (_,result: Result) =>
                val row: String = Bytes.toString(result.getRow) // 获取 RowKey
                // 获取指定列族的相关列数据
                val city_name: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "city_name".getBytes()))
                val province_name: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "province_name".getBytes()))
                val total_amount: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "total_amount".getBytes()))
                val total_count: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "total_count".getBytes()))
                val sequence: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "sequence".getBytes()))
                val year: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "year".getBytes()))
                val month: String = Bytes.toString(result.getValue(cloumnName.getBytes(), "month".getBytes()))
                (row,city_name,province_name,total_amount,total_count,sequence,year,month)
        }
                .toDF("row","city_name","province_name","total_amount","total_count","sequence","year","month")
                .show()


        spark.stop()
    }

}

读取结果如下:

在这里插入图片描述

使用过程中如果报错,请检查相关包是否导入正确。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 批量操作是指一次性对多个数据进行操作,可以提高操作效率。在使用 Spark HBase 时,也可以使用批量操作来提高效率。具体实现方式如下: 1. 批量入数据 使用 HBase 的 Put 类来创建要入的数据,然后将 Put 对象添加到一个 List 中,最后使用 HBase 的 Table 类的 put 方法来批量入数据。示例代码如下: ```scala val conf = HBaseConfiguration.create() val connection = ConnectionFactory.createConnection(conf) val table = connection.getTable(TableName.valueOf("table_name")) val puts = new ListBuffer[Put]() for (i <- 1 to 100) { val put = new Put(Bytes.toBytes(s"row_$i")) put.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("col"), Bytes.toBytes(s"value_$i")) puts += put } table.put(puts.toList.asJava) ``` 2. 批量取数据 使用 HBase 的 Get 类来创建要取的数据,然后将 Get 对象添加到一个 List 中,最后使用 HBase 的 Table 类的 get 方法来批量取数据。示例代码如下: ```scala val conf = HBaseConfiguration.create() val connection = ConnectionFactory.createConnection(conf) val table = connection.getTable(TableName.valueOf("table_name")) val gets = new ListBuffer[Get]() for (i <- 1 to 100) { val get = new Get(Bytes.toBytes(s"row_$i")) get.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("col")) gets += get } val results = table.get(gets.toList.asJava) for (result <- results) { val row = Bytes.toString(result.getRow) val value = Bytes.toString(result.getValue(Bytes.toBytes("cf"), Bytes.toBytes("col"))) println(s"$row: $value") } ``` 以上就是使用 Scala 实现 Spark HBase 的批量操作的方法。 ### 回答2: 在实际的数据处理中,一次需要对多条数据进行操作,如果每次都进行单条的逐条操作会使程序效率非常低下。所以spark提供了批量操作API,可以对多条数据进行一次性的操作,极大地提高了程序的效率。 批量操作: 批量取数据的方式有两种:Get和Scan。 使用Get方式取多条数据,需要将每条数据对应的Get对象添加到List集合当中,再将List集合转换为RDD对象进行操作。示例代码如下: ```scala val conf = HBaseConfiguration.create() conf.set(TableInputFormat.INPUT_TABLE, tableName) val gets = new util.ArrayList[Get]() gets.add(new Get(Bytes.toBytes("rowkey1"))) gets.add(new Get(Bytes.toBytes("rowkey2"))) gets.add(new Get(Bytes.toBytes("rowkey3"))) conf.set(TableInputFormat.SCAN, convertScanToString(new Scan())) val getRdd = sc.parallelize(gets) val hbaseRdd = getRdd.map((_, null)).hbaseBulkGet(conf, tableName, (result: Result) => { val kv: Array[Byte] = result.getValue(Bytes.toBytes(family), Bytes.toBytes(column)) Bytes.toString(kv) }) println(hbaseRdd.collect.toBuffer) ``` 使用Scan方式取多条数据,需要将Scan对象作为参数传入,再将RDD对象转换为PairRDD并使用hbaseScan方法进行操作。示例代码如下: ```scala val conf = HBaseConfiguration.create() conf.set(TableInputFormat.INPUT_TABLE, tableName) val scan = new Scan(Bytes.toBytes("rowkey1"), Bytes.toBytes("rowkey3")) conf.set(TableInputFormat.SCAN, convertScanToString(scan)) val hbaseRdd = sc.hbaseScanRDD(conf).map((result: Result) => { val kv: Array[Byte] = result.getValue(Bytes.toBytes(family), Bytes.toBytes(column)) Bytes.toString(kv) }) println(hbaseRdd.collect.toBuffer) ``` 批量操作: 批量操作可以使用Put对象集合,将多条数据对应的Put对象添加到集合中,并将集合转换成RDD进行操作即可。示例代码如下: ```scala val conf = HBaseConfiguration.create() conf.set(TableOutputFormat.OUTPUT_TABLE, tableName) val puts = new util.ArrayList[Put]() puts.add(new Put(Bytes.toBytes("rowkey1")).addColumn(Bytes.toBytes(family), Bytes.toBytes(column), Bytes.toBytes("value1"))) puts.add(new Put(Bytes.toBytes("rowkey2")).addColumn(Bytes.toBytes(family), Bytes.toBytes(column), Bytes.toBytes("value2"))) puts.add(new Put(Bytes.toBytes("rowkey3")).addColumn(Bytes.toBytes(family), Bytes.toBytes(column), Bytes.toBytes("value3"))) val putRdd = sc.parallelize(puts) putRdd.hbaseBulkPut(conf, tableName) ``` 总结: 批量操作是Spark访问HBase的常见操作方式,在实际的实现过程中需要注意以下几点: 1、Get和Scan对象在HBase取数据的方式不一样,需要注意区分; 2、使用批量操作可以大大提高程序效率,减少操作的时间消耗; 3、使用批量操作需要合理规划入的数据,避免出现数据冲突问题,影响程序的运行。 ### 回答3: 本篇文章将继续深入介绍如何使用Scala编码实现Spark操作HBase,具体涉及到HBase的批量操作。 一、Batch操作概述 在使用HBase进行数据处理的时候,我们常常需要对一个或多个表进行批量操作,批量操作即是针对 HBase的多行进行插入、删除等操作,以此来实现在HBase操作上的高效处理。HBase提供了很多批量操作API,比如 Put、Get、Delete、Scan,这些API都是可以批量操作的。 在Spark中,我们同样可以使用类似的API对HBase进行批量操作。本文将根据具体需求使用Spark实现HBase的批量操作。 二、批量操作的实现 SparkHBase时,使用RDD中的foreachPartition来对每个分区进行处理,在该函数内使用HBase API进行操作。关于批量操作,我们可以在每个分区中开启一个batch操作,将每个操作加入batch后,再提交即可。 例如,我们可以考虑实现一个批量put的功能,将RDD中的数据一批一批入表中: ``` def insert(tableName: String, rdd: RDD[(String, String)]): Unit = { try{ rdd.foreachPartition({ iter => val conf = HBaseUtils.getHBaseConfiguration() conf.set(TableOutputFormat.OUTPUT_TABLE, tableName) val conn = ConnectionFactory.createConnection(conf) val table = conn.getTable(TableName.valueOf(tableName)) val puts = new java.util.ArrayList[Put]() iter.foreach { case (rowKey:String, value: String) => { // 构造put对象并append val put = new Put(Bytes.toBytes(rowKey)) put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(columnQualifier), Bytes.toBytes(value)) puts.add(put) if (puts.size() >= batchSize) { // 多条记录组成的put对象,使用put(List<Put>)一次性入 table.put(puts) puts.clear() } } } // 如果puts还有内容,再一次 if (puts.size() > 0) { table.put(puts) puts.clear() } table.close() conn.close() }) } catch { case e: Exception => e.printStackTrace() } } ``` 在该方法中,我们使用foreachPartition遍历RDD中的每个分区,然后通过Connection来获取HBase表实例。 之后定义了一个用于存放Put的List,当List的大小大于等于batchSize时,就将这个List中的所有put操作提交给HBase执行。 最后,释放资源,并为大家展示如何调用这个方法: ``` val rdd: RDD[(String, String)] = ... val tableName: String = ... insert(tableName, rdd) ``` 使用这种方式实现批量put,我们可以将一批数据提交到HBase执行,从而提升入效率。当然,对于其他批量操作也可以应用类似的方式。 三、总结 本文根据实际需求,结合SparkHBase的特点,实现了一些常用的批量操作,为大家提供了一个快速、高效的HBase操作方案。批量操作的好处是,可以将多条记录一次性操作,请求与入等待时间都会得到缩短,获得更高的效率。感兴趣的同学可以试试,在实际开发中应该会受益匪浅!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

月亮给我抄代码

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值