1、安装必要的软件
1.1、首先要安装jdk
1.2、安装ssh : sudo apt-get ssh
1.3、安装rsync: sudo apt-get rsync
2、安装hadoop
2.1、上传hadoop到/usr/hadoop/文件夹下
2.2、解压hadoop: tar -zxvf hadoop-1.2.1.tar.gz
3、配置hadoop
3.1、进入/hadoop-1.2.1/conf,配置core-site.xml
3.2、配置hadoop-env.sh
打开这个注释并修改java_HOME为你的java路径:export JAVA_HOME=/usr/java/jdk1.8.0_101
3.3、hdfs.site.xml
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<name>dfs.replication</name>
<value>2</value>
</property>
3.4、编辑masters和slaves文件,分别设置datanode和secondarynamenode
3.5、在其他机器上重复一、二,然后将配置文件复制到其他机器上覆盖。
4、运行hadoop
4.1、格式化,进入bin目录: ./hadoop namenode -format
4.2、启动hdfs: ./start-dfs.sh
4.3、打开浏览器输入:node1:50070(node1是你的namenode主机名)