spark hbase mysql_在spark中创建hbase表

本文介绍如何在Spark环境中创建HBase表。通过SparkSession配置,建立与HBase的连接,并利用HBase的API检查及创建表。代码示例中展示了设置ZooKeeper集群地址、表名,以及创建表描述符和列簇的过程。
摘要由CSDN通过智能技术生成

需要在spark中将数据保存到hbase,那就要先用spark在hbase创建表,和连接mysql数据库执行sql语句不一样,

直接上spark代码://spark对象

var spark = SparkSession.builder().appName("testSpark")

.config("spark.some.config.option", "some-value")

.config("spark.hadoop.validateOutputSpecs", false)

.enableHiveSupport()

.getOrCreate()

val sc=spark.sparkContext

/** 另外一中创建admin的方式

val hbaseConf = HBaseConfiguration.create()

hbaseConf.set(HConstants.ZOOKEEPER_QUORUM, "master,slave1,slave2,slave3,slave4")

hbaseConf.set(TableOutputFormat.OUTPUT_TABLE,"hb_itxw")

hbaseConf.set(TableInputFormat.INPUT_TABLE, "hb_itxw")

val hbaseConn = ConnectionFactory.createConnection(hbaseConf)

val admin = hbaseConn.getAdmin

**/

//hbase 属性

sc.hadoopConfiguration.set(HConstants.ZOOKEEPER_QUORUM,"master,slave1,slave2,slave3,slave4")

sc.hadoopConfiguration.set(TableOutputFormat.OUTPUT_TABLE,"hb_itxw")

sc.hadoopConfiguration.set(TableInputFormat.INPUT_TABLE, "hb_itxw")

//连接hbase

val hbaseConn = ConnectionFactory.createConnection(sc.hadoopConfiguration)

val admin = hbaseConn.getAdmin

//如果不存在就创建表

if (!admin.tableExists(TableName.valueOf("hb_itxw"))) {

val desc = new HTableDescriptor(TableName.valueOf("hb_itxw"))

//指定列簇 不需要创建列,列式存储不需要创建列

val hcd = new HColumnDescriptor("cf")

desc.addFamily(hcd)

admin.createTable(desc)

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值