主要参考:
https://blog.csdn.net/baolibin528/article/details/42939477
https://blog.csdn.net/baolibin528/article/details/43174179
(1)版本的选择问题
本次在76服务器上安装伪分布式。
hadoop版本是hadoop-2.7.5.tar
base版本是hbase-1.3.1-bin.tar
之所以选择这两个版本,是因为从官网看过,hadoop2.7支持hbase1.3。 不同的hadoop版本,是否支持某个hbase版本,最好去官网查一下。本来想用hadoop2.9的,但是好像没有找到支持的hbase版本,所以就没用最新的hadoop。
(2)安装路径问题
本次安装, hadoop和hbase都安装在 /usr/local/下面。
所谓的安装,其实就是把tar包解压,放在这个目录下,要注意下文件夹的权限(chown等等)。
安装后,修改几个配置文件,比如/etc/profile , core-site.xml 等等。
(3)启动方法问题
可以使用start-all.sh 启动,也可以分开启动(先启动start-hdf.sh后启动start-yarn.sh 大体是这个名字啊)
一般来说这两种没什么区别,但是我看网上有人比较推荐分开启动。
从目前来看,我也推荐分开启动。 因为感觉还是有些莫名其妙的区别。 一开始我用start-all启动的,但是在hbase中list的时候,总是报错zookeeper什么null什么的 。后来关闭所有重新分开启动,就没有那个报错了。
(4)我粘贴一下目前的一些配置文件的配置
hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:8020/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/chenchen_install_hadoop/zk_data</value>
</property>
</configuration>
hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_161
export HBASE_MANAGES_ZK=true
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8020</value>
</property>
</configuration>