【spark】连接habse数据库

本文档介绍了如何启动Hadoop和HBase,创建HBase测试库,以及配置Spark进行连接。在Spark中,需要将HBase的相关jar包拷贝到Spark的lib目录下,并特别指出在Spark 2.0版本上需要额外下载转换HBase数据为Python可读的jar包。
摘要由CSDN通过智能技术生成

1.启动hadoop,hbase

start-all.sh
start-hbase.sh
# 确认启动成功
jps

应该会看到下面这些进程

2375 SecondaryNameNode
2169 DataNode
2667 NodeManager
2972 Jps
2045 NameNode
2541 ResourceManager

2.创建hbase测试库

hbase shell
create 'student','info'
//首先录入student表的第一个学生记录
put 'student','1','info:name','Xueqian'
put 'student','1','info:gender','F
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值