系统:Centos7
JDK:v 1.8
在master上操作:
-
添加Hadoop环境,修改/etc/profile文件
添加:
HADOOP_HOME=/usr/local/src/hadoop
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export PATH HADOOP_HOME
-
给添加JAVA路径,修改…/hadoop/etc/hadoop/hadoop-env.sh文件
找到:
export JAVA_HOME=${JAVA_HOME}
修改为:
export JAVA_HOME=/usr/local/src/java
/usr/local/src/java
是具体的JDK路径 -
指定HDFS的主节点namenode,修改文件…/hadoop/etc/hadoop/core-site.xml
在标签中添加:
<configuration> <!-- 指定hadoop临时目录,自行创建 --> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/src/hadoop/tmp</value> </property> <!-- 指定hdfs的nameservice为master --> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration>
-
配置slave节点,修改文件…/hadoop/etc/hadoop/slaves
将localhost修改为slave1-slave3
slave1
slave2
slave3
-
将已经配置好的hadoop文件夹,拷贝至其他slave节点
scp ./hadoop root@slave1:/usr/local/src/hadoop
-
格式化主节点,命令:hdfs namenode -format
-
启动HDFS,命令:sbin/start-dfs.sh
-
查看进程是否启动,命令jps:
master上有:
Namenode
SecondaryNameNode
slave上有:
DataNode
-
查看HDFS的web界面:访问http://master:50070