1. 选择Hadoop
version为2.7.3版本(https://archive.apache.org/dist/hadoop/core/hadoop-2.7.3/)
2. 配置伪分布式环境
进入Hadoop文件下的 /etc/hadoop
2.1 配置hadoop-env.sh
exprot JAVA_HOME =${JAVA_HOME}
改为 `exprot JAVA_HOME = /usr/java/安装路径`
2.2 配置hdfs-site.xml
<configuration>
<!--指定hdfs保存数据的副本数量-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!--指定hdfs中namenode的存储位置-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/wda/hadoop_data/dfs/name</value>
</property>
<!--指定hdfs中datanode的存储位置-->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/wda/hadoop_data/dfs/data</value>
</property>
</configuration>
2.3 配置core-site.xml
<configuration>
<!--指定namenode的地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://0.0.0.0:9000</value>
</property>
<!--用来指定使用hadoop时产生文件的存放目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/wda/hadoop_data</value>
</property>
</configuration>
3. 启动Hadoop集群,测试环境是否可以正常使用
3.1在home目录下创建数据存储目录 cd ~ 然后 mkdir hadoop_data
3.2进入hadoop安装目录下,启动
3.2.1 进入hadoop下的bin目录后 ./hdfs namenode -format
,status 等于0时,启动成功
3.2.2 进入Hadoop下的sbin目录后 ./start-dfs.sh
,创建出进程后启动成功