1.进入hadoop压缩文件所在文件夹,我的是/usr/local,对压缩文件进行解压,tar -zxvf hadoop-1.1.2.......
2.由于解压后的名字较长,重命名为hadoop.
3.在/etc/profile下设置环境变量,加入export Hadoop_HOME=/usr/local/hadoop,并把$HADOOP_HOME/bin加入到PATH中.
4.执行source /etc/profile,使配置生效.
5.修改$HADOOP_HOME/conf目录下的4个配置文件以适应伪分布式安装,配置文件分别为hadoop-env.sh,core-site.xml, hdfs-site.xml, mapred-site.xml.(为了简单可以在winSCP中修改).
6.hadoop-env.sh修改方法:将第九行#export JAVA_HOME=/usr/lib/j2sdk1.5-sun改为export JAVA_HOME=/usr/local/jdk(jdk安装目录).
7.core-site.xml的修改内容:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop0:9000</value>
<description>change your own hostname</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
8.hdfs-site.xml的修改内容:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
9.mapred-site.xml修改内容:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop0:9001</value>
<description>change your own hostname</description>
</property>
</configuration>
10.对hadoop进行格式化,执行hadoop namenode -format.
11.启动Hadoop,执行start-all.sh,运行后可通过jps查看运行进程(namenode,datanode,secondarynamenode,jobtracker,tasttracker),看看是否安装成功.
12.或通过浏览器查看是否安装成功,在浏览器中输入hadoop:50070,看看是否出现namenode界面,或50030看mapreduce界面.
13.去除启动错误,查看start-all.sh文件,在/etc/profie中加入exprot HADOOP_HOME_WARN_SUPPRESS=1.修改后执行source.