Spark读取Hbase数据

29 篇文章 0 订阅
[size=medium]

直接上代码:可以上传jar包,给远程的spark集群,这样能在idea中windows环境上运行代码:
[/size]


package com.tools.hbase

import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.client.Result
import org.apache.hadoop.hbase.io.ImmutableBytesWritable
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.spark.{SparkContext, SparkConf}

/**
* Created by qindongliang on 2016/1/12.
*/
object HbaseTest {


def main(args: Array[String]) {
System.setProperty("user.name", "webmaster");
System.setProperty("HADOOP_USER_NAME", "webmaster");
val jarPath="target\\scala-2.11\\scala-spark_2.11-1.0.jar";
val sparkConf=new SparkConf().setMaster("spark://192.168.1.187:7077").setAppName("read hbase");
val seq=Seq(jarPath) :+ "D:\\bigdata\\hbaselib\\hbase-protocol-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\hbase-common-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\htrace-core-2.04.jar" :+ "D:\\bigdata\\hbaselib\\hbase-client-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\hbase-server-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\guava-12.0.1.jar"
// val seq=Seq(jarPath)
// println("jar包路径:"+seq)

sparkConf.setJars(seq)
val sc=new SparkContext(sparkConf);
val conf=HBaseConfiguration.create();
conf.set("hbase.zookeeper.quorum", "192.168.1.187");
conf.set(TableInputFormat.INPUT_TABLE,"xxxx")
//得到Hbase的Result转成RDD
val rdd=sc.newAPIHadoopRDD(conf,classOf[TableInputFormat]
,classOf[ImmutableBytesWritable],classOf[Result]);

val count=rdd.count();
println("数量:"+count)
sc.stop();


}


}


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值