linux hbase安装教程,HBASE单机安装教程(centOS6.5)

本文档详细介绍了在Linux环境下配置Hadoop和HBase的步骤,包括关闭防火墙、修改主机名、配置环境变量、安装JDK、安装Hadoop、设置Hadoop环境变量、初始化Hadoop、解决启动问题以及安装和配置HBase的过程。最后,文中提到了启动HBase后可能遇到的日志绑定问题和解决方法。
摘要由CSDN通过智能技术生成

注意Hadoop与HBASE对应支持支持版本

1基本配置

1.1关闭防火墙

Chkconfig –list | grep iptables

5f147bb1f4db4f81b3a48813ddc4763a.png

确定全部为off

否则执行chkconfig iptables off

Service iptables stop

1.2添加 主机IP 和对应的主机名称,做映射。主机名可用hostname查看(注:在配置文件中使用主机名的话,这个映射必须做!)

286a1e092d310088cfc5cf4612d87c59.png

1.3查看sestatus

5bdf0fbfd43caa347b85da13acd855a7.png

如果没有显示disabled则 vi /etc/selinux/config将SELINUX=disabled

1.4修改主机名

Vi /home/hadoop3.1.0/etc/hadoop/slave

修改成自己的主机名

2 jdk安装

2.1将jdk-8u144-linux-x64.rpm放入根目录下

上传完后的文件如下,文件只有读写权限,没有执行权限

-》执行chmod 755 jdk-8u144-linux-x64.rpm授权

-》执行rpm -ivh jdk-8u144-linux-x64.rpm进行安装

7d5c354b4b66a0d365ea81ab840de9d7.png

如果在安装时出现如下错误

warning:waiting for transaction lock on /var/lib/rpm/.rpm.lock

使用如下命令来进行安装

sudo rpm -ivh jdk-8u144-linux-x64.rpm

如果仍然不可以,使用如下命令强制解锁后再次安装即可

sudo rm /var/lib/rpm/.rpm.lock

jdk安装成功后,默认存放在/usr/java文件目录中

4172e6a139b98606655c6589c2e33e7a.png

2.3、配置环境变量

vi /etc/profile

在文件尾部添加如下内容,保存退出

export JAVA_HOME=/usr/java/jdk1.8.0_144

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tool.jar

再使用source /etc/profile使环境变量生效

输入如下命令验证环境变量是否生效

echo $PATH

输入如下命令查看jdk版本

java –version

1c61a687614f1284973587fc640f27c2.png

3 hadoop安装

3.1、解压hadoop-2.7.6.tar.gz

Tar –zvxfhadoop-2.7.6.tar.gz可将文件移至home下

3910c93ef9aa0b00648182bedd35f5d3.png

3.2、profile 文件更改

export HADOOP_HOME=/home/hadoop

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH

输入source  /etc/profile

3.3、修改配置文件

3.3.1 在修改配置文件之前,先在root目录下建立一些文件夹。

mkdir  /root/hadoop

mkdir  /root/hadoop/tmp

mkdir  /root/hadoop/var

mkdir  /root/hadoop/dfs

mkdir  /root/hadoop/dfs/name

mkdir  /root/hadoop/dfs/data

3.3.2 修改core-site.xml

在添加:

hadoop.tmp.dir

/root/hadoop/tmp

Abase for other temporary directories.

fs.default.name

hdfs://wll:9000

1ffc21e443dcbcb54552a9a58d319fbe.png

3.3.3修改 hadoop-env.sh

export JAVA_HOME=/usr/java/ jdk1.8.0_144

7c05d6af0963e4a39b7a683fe243ccd4.png

3.3.3修改 hdfs-site.xml

在添加:

dfs.name.dir

/root/hadoop/dfs/name

Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.

dfs.data.dir

/root/hadoop/dfs/data

Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.

dfs.replication

1

3ff64b57350e92a5892904e582b418f5.png

3.3.4 修改mapred-site.xml

mapred.local.dirname>

/root/hadoop/varvalue>

property>

mapreduce.framework.namename>

yarnvalue>

property>

023f1bbd5a4f0727e1a28183111bef75.png

到此 Hadoop 的单机模式的配置就完成了。

4 免密登录

先测试是否能免密登录,输入试试localhost,出现以下则不能免密登录

8cfb3de5e93b5cad03b0572e19b1e0ba.png

去掉 /etc/ssh/sshd_config中的两行注释,如没有则添加

b87771b149cdff1be09b8c02cf769e36.png

0ca3e4e8f4921a82b561517c175e6921.png

生成秘钥,输入命令 ssh-keygen -t rsa  然后一路回车

37206fe6ae94ae78bc11f1861f074092.png

复制到公共密钥中

cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys

测试是否成功

243b12870ca2cc5dd1814335d571fab2.png

5 hadoop启动

第一次启动Hadoop需要初始化,切换到 /home/hadoop/bin目录下输入

hadoop  namenode  -format

5ba28ae2be38b1baf11083716433e369.png

初始化成功后,可以在/root/hadoop/dfs/name 目录下看见新增了一个current 目录以及一些文件。

7cacafc6d21bcec6d6682b60733d7f0d.png

切换到/home/hadoop/hadoop3.1.0/sbin目录,启动HDFS

输入:

start-dfs.sh

start-yarn.sh

输入jps:出现以下信息,配置完成

f67a8f54149501735e05f9ce11952454.png

错误一:

输入: start-dfs.sh

如果出现以下错误,则输入source ~/.bash_profile

5d2684875b6d609d6ec4383521dae379.png

错误二:

如果运行start-dfs.sh脚本报如下错误

69fb7c92428f8893dcef498420914345.png

(缺少用户定义而造成的)因此编辑启动和关闭

vi sbin/start-dfs.sh

vi sbin/stop-dfs.sh

顶部加入

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

cf5533f25baa61a14e2393c727220bc6.png

错误三:

运行start-yarn.sh报错

7fdce381d8c07483b0edb064931b045b.png

是因为缺少用户定义造成的,所以分别编辑开始和关闭脚本

vi sbin/start-yarn.sh

vi sbin/stop-yarn.sh

顶部添加

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

1e99faf8d4c67ac3231309b1ef659bde.png

6 hbase安装

6.1、解压hbase-2.0.1-bin.tar.gz

tar –zvxf hbase-2.0.1-bin.tar.gz

然后移动到 /home/hbase

mv hbase-2.0.1 /home/hbase

f9585998b421dd0b7158d96816a397d7.png

6.2 、编辑 /etc/profile 文件

注意修改在前基础上修改PATH路径

export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HBASE_HOME}/bin:$PATH

export HBASE_HOME=/home/hbase

21d34780dd7987c52f23969e1a4e5139.png

输入source  /etc/profile使修改生效

查看hbase版本hbase version

a6bd063bf8ed3db1c43de27135fb5874.png

6.3、修改配置文件

在 root目录下新建文件夹

mkdir  /root/hbase

mkdir  /root/hbase/tmp

mkdir  /root/hbase/pids

编辑hbase-site.xml 文件,在添加如下配置

hbase.rootdir

hdfs://wll:9000/hbase

hbase.zookeeper.quorum

wll

hbase.tmp.dir

/root/hbase/tmp

ec738083d312a75b191d555fa4fb10c2.png

7 HBASE启动

a193bda11e7bc7ed3476236bac4c0605.png

SLF4J: Class path contains multiple SLF4J bindings.

SLF4J: Found binding in [jar:file:/home/hbase/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]

SLF4J: Found binding in [jar:file:/home/hadoop3.1.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]

SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]

发现这两个jar重复,删除其中一个即可

13fa4670b6dbd6d20a2d8083952cfe15.png

启动后:

7d0293702336f7f72ef2a79d7c5fd47a.png

进入操作语句执行界面HBASE shell

95566d6fd483ad5cc5db20f5bbbd8e27.png

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值