a) 单节点集群的安装
参考http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/
- 配置ssh(无密码连接到localhost)
$ chmod g-w ~/.ssh/authorized_keys【这里尤其注意,你的机器上若没有.ssh目录,那么mkdir之后一定确保.ssh权限是700】
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
解压hadoop-x.x.x.tgz
$ tar zxvf hadoop-x.x.x.tgz
- 配置hadoop
编辑hadoop-install-directory /conf/hadoop-env.sh,修改JAVA_HOME为JDK的安装目录。例如:
# The java implementation to use. Required.
export JAVA_HOME=/usr/lib/jvm/java-6-openjdk
b) 检测hadoop是否安装成功
- 开启hadoop
进入hadoop的安装目录,第一次开启hadoop要格式化hadoop文件系统,输入以下命令:
$ bin/hadoop namenode –format
然后开启hadoop,输入命令:
$ bin/start-all.sh
- 检测hadoop进程是否都启动
输入命令:$ jps
hadoop成功启动会出现以下进程:
TaskTracker
JobTracker【如果它没启动,看看/etc/hosts文件然后再看配置文件】
DataNode【如果它没有启动看看是不是犯了第一章中总结的错误】
SecondaryNameNode
NameNode
Jps
- 停止hadoop
在hadoop的安装目录输入命令:$ bin/stop-all.sh