hadoop hbase java_Hadoop、Hbase伪分布式安装

环境

本文介绍Hadoop、Hbase的伪分布式安装。

操作系统: Centos7

Hadoop: 2.7.3

Hbase: 1.2.3

Hadoop安装

JAVA_HOME环境变量配置

由于Hbase是基于HDFS的,所以我们首先部署Hadoop。

下载jdk7和hadoop-2.7.3

cd hadoop-2.7.3/etc/hadoop

vim hadoop-env.sh

打开文件后,搜索这一行

export JAVA_HOME

因为默认是使用系统JAVA_HOME,所以要修改成我们下载的jdk,以笔者的环境为例:

export JAVA_HOME=/home/pay/soft/java/jre

设置完以后,运行如下命令

bin/hadoop

如果出现usage文档,即配置成功。

HDFS配置

在etc/hadoop/core-site.xml的标签内做如下配置:

fs.defaultFS

hdfs://localhost:9000

接着在etc/hadoop/hdfs-site.xml的标签内做如下配置:

dfs.replication

1

dfs.http.address

0.0.0.0:8777

dfs.namenode.name.dir

file:/usr/local/hadoop/tmp/dfs/name

dfs.datanode.data.dir

file:/usr/local/hadoop/tmp/dfs/data

默认的Hadoop的Web UI端口是50070,若你的机器做了端口限制,可以配置dfs.http.address的新的值,从而可以从浏览器访问Web UI。

配置SSH的免key登陆

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

chmod 0600 ~/.ssh/authorized_keys

由于Hadoop节点之间通过SSH通信,为了避免连接过程中人工输入密码,所以要配置SSH的免key登陆,由于本文讲得是伪分布式,因此只需要对本机localhost免key登陆即可。

完成以上命令以后,输入以下命令,若不需要输入密码,则说明配置。

ssh localhost

运行

对文件系统格式化:

bin/hdfs namenode -format

起文件系统:

sbin/start-dfs.sh

检查HDFS是否起了,输入jps,看控制台输出

7923 Jps

15782 NodeManager

22139 DataNode

22683 SecondaryNameNode

21842 NameNode

25072 -- process information unavailable

15380 ResourceManager

若DataNode、NameNode、SecondaryNameNode、NodeManager、ResourceManager这几个进程都起来了,则说明HDFS部署成功。

再访问WEB UI界面,输入http://yourUrl:8777/,yourUrl服务器的地址,浏览器会出现如下界面:

deb95cd7c9b147169175b8b72d7ba976.png

在HDFS中创建文件夹,并将文件上传到HDFS:

bin/hadoop fs -mkdir /usr

bin/hadoop fs -mkdir /usr/test

./hadoop fs -put /home/pin/hadoop-2.7.3/etc/hadoop/hdfs-site.xml /usr/test

YARN监控任务

对etc/hadoop/mapred-site.xml如下配置:

mapreduce.framework.name

yarn

再对etc/hadoop/mapred-site.xml做如下配置:

yarn.nodemanager.aux-services

mapreduce_shuffle

配置完以后,执行脚本起YARN服务:

sbin/start-yarn.sh

用浏览器访问http://yourUrl:8088即可看到资源和节点的管理信息。如下:

2e9aa1e2528f72fa3d0f8fd3607bc973.png

运行示例程序

运行如下命令:

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep /usr/test /usr/output 'dfs[a-z.]+'

示例程序运行一个正则统计程序,我们可以通过访问http://yourUrl:8088来观察job的运行情况,job结束以后,我们输入以下命令:

>> bin/hadoop fs -cat /usr/output/*

1 dfs.replication

1 dfs.namenode.name.dir

1 dfs.http.address

1 dfs.datanode.data.dir

以上即被正则统计到的字符串以及出现的次数。

至此,Hadoop的安装完成。

Hbase安装

解压Hbase的安装包,修改conf/hbase-env.sh文件,如下:

export JAVA_HOME=/home/pay/soft/java

export HBASE_CLASSPATH=/home/pay/pin/hbase-1.2.3/conf

export HBASE_MANAGES_ZK=true

再修改conf/hbase-site.xml文件,如下:

hbase.cluster.distributed

true

hbase.rootdir

hdfs://localhost:9000/hbase

hbase.master.info.port

8171

启动Hbase:

./bin/start-hbase.sh

在HDFS上查看Hbase文件,如下则创建成功

>> hadoop fs -ls /hbase

drwxr-xr-x - root supergroup 0 2017-11-13 15:41 /hbase/.tmp

drwxr-xr-x - root supergroup 0 2017-11-13 15:41 /hbase/MasterProcWALs

drwxr-xr-x - root supergroup 0 2017-11-13 15:42 /hbase/WALs

drwxr-xr-x - root supergroup 0 2017-11-13 15:56 /hbase/archive

drwxr-xr-x - root supergroup 0 2017-11-13 15:22 /hbase/data

-rw-r--r-- 3 root supergroup 42 2017-11-13 15:22 /hbase/hbase.id

-rw-r--r-- 3 root supergroup 7 2017-11-13 15:22 /hbase/hbase.version

drwxr-xr-x - root supergroup 0 2017-11-13 16:30 /hbase/oldWALs

输入jps命令,查看进程

27137 HRegionServer

15782 NodeManager

22139 DataNode

22683 SecondaryNameNode

26844 HQuorumPeer

21842 NameNode

25072 -- process information unavailable

27607 Jps

15380 ResourceManager

26959 HMaster

若输出以上的信息,则说明Hadoop和Hbase都创建成功。

以上。

原文链接

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值