1、解压压缩包
tar -zxvf hadoop-2.7.1_64bit.tar.gz
2、进入配置文件目录
cd /usr/local/bigdata/hadoop-2.7.1/etc/hadoop
3、修改hadoop-env.sh
增加jdk
export JAVA_HOME=/usr/local/jdk1.8.0_144
export HADOOP_CONF_DIR=/usr/local/bigdata/hadoop-2.7.1/etc/hadoop
4、修改core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://Flume:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/software/Hadoop/hadoop-2.7.1/tmp</value>
</property>
5、修改hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
6、修改slaves
#Flume
spark21
spark22
7、格式化
到bin目录中
./hadoop namenode -format
注意:
要先把datanode节点上的tmp文件夹下清空。
8、启动:hdfs
到bin文件夹下:
./start-dfs.sh
9、 访问hdfs
namenode:http://flume:50070/