1.安装前
1.1安装ssh
yum -y install openssh*
1.2安装JDK、配置环境变量
rpm -ivh jdk-7u51-linux-x64.rpm 配置环境变量 vi /etc/profile 向文件里面追加以下内容: JAVA_HOME=/usr/java/jdk1.7.0_51 JRE_HOME=/usr/java/jdk1.7.0_51/jre PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin CLASSPATH=:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib export JAVA_HOME JRE_HOME PATH CLASSPATH 使修改生效 [root@localhost ~]# source /etc/profile //使修改立即生效
1.3配置ssh公钥密钥自动登录
在hadoop集群环境中,nameNode节点,需要能够ssh无密码登录访问dataNode节点
ssh-keygen -t rsa
cd .ssh
cp id_rsa.pub authorized_keys
ssh localhost
2.开始安装
2.1core-site.xml
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://nameNode:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> </configuration>
2.2hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.namenode.data.dir</name>
<value>file:/home/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
2.3格式化
/usr/local/software/hadoop-2.5.0/bin/hadoop namenode -format
2.4启动
/usr/local/software/hadoop-2.5.0/sbin/start-dfs.sh
2.5查看进程
[root@localhost /]# jps 2855 NodeManager 2175 DataNode 2772 ResourceManager 3288 Jps 2095 NameNode 2334 SecondaryNameNode
说明hadoop已经启动成功。
2.6打开http://localhost:50070,可看到hadoop的管理界面,导航栏的最后一项还可以查看hadoop里面的文件。