Hadoop配置修改:
hadoop-env.sh 文件:
export JAVA_HOME=/usr/local/jdk1.8.0_181
core-site.xml 文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/opt/hadoop/name</value>
</property>
</configuration>
hdfs-site.xml 文件:
<configuration>
<property>
<name>dfs.data.dir</name>
<value>/opt/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml 文件:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml 文件:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
修改完文件后,运行 hdfs namenode -format ,hadoop namenode -format 进行格式化。 格式化之后运行 start-all.sh 启动hadoop
localhost:50070 访问hadoopWeb
localhost:8088 访问hadoop yarn
HBase 环境配置:
配置HBase之前,需要确保Hadoop 已经启动完成,并且zookeeper 集群也启动完成, hbase与hadoop要选取稳定版本
hbase-env.sh 文件:
export JAVA_HOME=/usr/local/jdk1.8.0_181
export HBASE_MANAGES_ZK=false
hbase-site.xml 文件:
<configuration>
<property>
<name>hbase.tmp.dir</name>
<value>/opt/hbase/data</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/opt/hbase/data</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.10.150:2181,192.168.10.222:2181,192.168.10.228:2181</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>
regionservers 文件: 需要填写hbase集群的主机名称
配置文件修改完成后,可以通过运行start-hbase.sh 启动hbase, 启动之后可以通过 localhost:60010 来访问hbase管理页面。
HBASE1.0之后的版本web端访问的接口变更为16010