win10下Spark java读取Hbase数据

本文采用spark2.1+hadoop2.7.3+Hbase1.3.0的配置,在hbase shell中插入数据,然后用java把这些数据读入到spark rdd中
摘要由CSDN通过智能技术生成

本文采用的配置为spark2.1+hadoop2.7.3+Hbase1.3.0

安装hadoop

1、hadoop在官网下载src之后解压,创建新系统环境变量HADOOP_HOME并把值设置为hadoop解压所在目录。把这个链接https://github.com/steveloughran/winutils/tree/master/hadoop-2.7.1下的bin目录下载下来,替换掉我们本地的hadoop bin目录。
2、 找到\hadoop-2.7.3\etc\hadoop\hadoop-env.cmd,然后把里面的JAVA_HOME的值改为你的jdk所在目录
具体可以参考http://blog.csdn.net/kokjuis/article/details/53537029

安装Hbase

1、下载Hbase,然后修改conf/hbase-site.xml为如下

configuration>
    <property>
           <!-- hbase提供的服务地址-->
           <name>hbase.master</name>
           <value>localhost:6000</value>
   </property>
   <property>
           <name>hbase.master.maxclockskew</name>
           <value>180000</value>
   </property>
   <property>
          <!-- hbase在hdfs里的目录 -->
           <name>hbase.rootdir</name>
           <value>hdfs://localhost:9000/hbase</value>
   </property>
   <property>
           <name>hbase.cluster.distributed</name>
           <value>false</value>
   </property>
   <property>
           <!-- ZK的主机地址 -->
           <name>hbase.zookeeper.quorum</name>
           <value>localhost</value>
   </property>
   <property>
            <!-- hbase在ZK上保存数据的目录 -->
           <name>hbase.zookeeper.property.dataDir</name>
           <value>/hbase</value>
   </property>
   <property>
           <name>dfs.replication</name><
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值