HBase安装

**

1.环境准备

**
准备好hbase、hadoop、java、zookeeper安装包
本次安装的版本和下载地址如下:
Hbase2.1.5
https://archive.apache.org/dist/hbase/2.1.5/

Zookeeper3.4.14
https://archive.apache.org/dist/zookeeper/zookeeper-3.4.14/

Hadoop3.1.2 https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.1.2/hadoop-3.1.2.tar.gz
**

2.安装java环境

**
1.解压安装包

tar -xzf jdk-8u101-linux-x64.tar.gz

2.创建目录,并将安装包移到目录下

mkdir /usr/java
cp jdk1.8.0_101 /usr/java/

3.配置环境变量

vi /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_101
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

source /etc/profile
4.查看java版本

java -version

**

3.安装并配置hadoop

**
1.解压hadoop安装包

tar -zxvf hadoop-2.7.5.tar.gz -C /home/ 
chown -R root:root /home/hadoop-2.7.5

2.修改core-site.xml配置
vim core-site.xml
把下面内容添加进configuration中

          # 路径
		    <property>
		     <name>fs.defaultFS</name>
		     <value>hdfs://ip:9000</value>
		    </property>
		 # 存放数据临时目录
		    <property>
		     <name>hadoop.tmp.dir</name>
		     <value>/home/hadoop-2.7.5/data</value>
		    </property>
		 # http请求的静态用户
		    <property>
		     <name>hadoop.http.staticuser.user</name>
		     <value>root</value>
		    </property>
		 # 读写序列缓存
		    <property>
		     <name>io.file.buffer.size</name>
		     <value>131072</value>
		     <description>读写序列缓存为:128KB</description>
		    </property>
			<property>
			  <name>hadoop.proxyuser.root.hosts</name>
			  <value>*</value>
			</property>
			<property>
			  <name>hadoop.proxyuser.root.groups</name>
			  <value>*</value>
			</property>

3.修改hadoop-env.sh

vim hadoop-env.sh 

export JAVA_HOME=/usr/java/jdk1.8.0_101
export HDFS_NAMENODE_USER=root 
export HDFS_DATANODE_USER=root 
export HDFS_SECONDARYNAMENODE_USER=root 
export YARN_RESOURCEMANAGER_USER=root 
export YARN_NODEMANAGER_USER=root

4.修改hdfs-site.xml
vim hdfs-site.xml
把下面内容添加进configuration中

<property>
		  <name>dfs.replication</name>
		  <value>1</value>
		  <description>hadoop中每一个block文件的备份数量</description>
</property>
<property>
		  <name>dfs.namenode.name.dir</name>
		  <value>/home/hadoop-2.7.5/data/dfs/name</value>
		 <description>namenode上存储hdfs名字空间元数据的目录</description>
</property>
<property>
		  <name>dfs.namenode.data.dir</name>
		  <value>/home/hadoop-2.7.5/data/dfs/data</value>
		  <description>datanode上数据块的物理存储位置目录</description>
</property>
<property>
		  <name>dfs.permissions.enabled</name>
		  <value>false</value>
		  <description>关闭权限验证</description>
</property>

5.修改yarn-site.xml
vim yarn-site.xml
把下面内容添加进configuration中

<property>
		  		<name>yarn.resourcemanager.connect.retry-interval.ms</name>
		  <value>20000</value>
</property>
<property>
		  <name>yarn.resourcemanager.scheduler.class</name>
		  <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
</property>
		 
<property>
		  <name>yarn.nodemanager.localizer.address</name>
		  <value>ip:8040</value>
</property>
<property>
		  <name>yarn.nodemanager.address</name>
		  <value>ip:8050</value>
</property>
<property>
		  <name>yarn.nodemanager.webapp.address</name>
		  <value>ip:8042</value>
</property>
<property>
		  <name>yarn.nodemanager.aux-services</name>
		  <value>mapreduce_shuffle</value>
</property>
	
<property>
		  <name>yarn.nodemanager.local-dirs</name>
		  <value>/home/hadoop-2.7.5/yarndata/yarn</value>
</property>
	
<property>
		  <name>yarn.nodemanager.log-dirs</name>
		  <value>/home/hadoop-2.7.5/yarndata</value>
</property>

6.设置hadoop环境变量

vi /etc/profile
export JAVA_LIBRARY_PATH=/home/hadoop-2.7.5/lib/native
	export HADOOP_HOME=/home/hadoop-2.7.5
	export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
	export HDFS_NAMENODE_USER=root
	export HDFS_DATANODE_USER=root
	export HDFS_SECONDARYNAMENODE_USER=root
	export HDFS_JOURNALNODE_USER=root
	export HDFS_ZKFC_USER=root
	export YARN_RESOURCEMANAGER_USER=root
	export YARN_NODEMANAGER_USER=root
	export HADOOP_MAPRED_HOME=$HADOOP_HOME
	export HADOOP_COMMON_HOME=$HADOOP_HOME
	export HADOOP_HDFS_HOME=$HADOOP_HOME
	export HADOOP_YARN_HOME=$HADOOP_HOME
	export HADOOP_INSTALL=$HADOOP_HOME
	export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
	export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
	export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

source /etc/profile

7.配置完成进行启动测试

./hdfs namenode -format
./start-all.sh
jps

4.安装并配置zookeeoer
1.解压zookeeper安装包

tar -zxvf Zookeeper-3.4.14.tar.gz -C /home/ 
chown -R root:root /home/Zookeeper-3.4.14

2.修改配置文件
修改conf下面zoo_sample.cfg改名为zoo.cfg
3.启动测试zookeeper

./zkServer.sh

5.安装并配置hbase
1.解压hbase安装包

tar xfz /home/hbase-1.3.1-bin.tar.gz

2.hbase添加到环境变量中

vi /etc/profile

export HBASE_HOME=/home/hbase-1.3.1 
export PATH=$HBASE_HOME/bin:$PATH

source /etc/profile

3.修改hbase-env.sh

vi hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_101 //去掉该行注释并改为实际安装的jdk版本

4.修改conf/hbase-site.xml的配置
Vi hbase-site.xml
把下面内容添加进configuration中

<property>
 <name>hbase.rootdir</name>
 	 <value>hdfs://ip:9000/hbase</value>
 </property>
 
 <property>
 <name>hbase.zookeeper.property.dataDir</name>
 <value>/home/Zookeeper-3.4.14/datatmp</value>
 </property>
 
 <property>
 <name>hbase.zookeeper.property.clientPort</name>
 <value>2181</value>
 </property>
 
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
 
  <property>
    <name>hbase.tmp.dir</name>
    <value>/home/hbase-1.3.1/tmp</value>
  </property>
 
  <property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
  </property>

5.配置HBase的环境变量

vi /etc/profile

export HBASE_HOME=/home/hbase-1.3.1
export PATH=$PATH:$HBASE_HOME/bin

source /etc/profile

6.启动hbase

./start-hbase.sh
jps

7.打开hbasewebUI
浏览器输入地址:ip:16010

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值