环境
服务器: | Centos 6.4 |
Hadoop: | Hadoop 2.0.5-alpha |
在我的环境中有5台服务器,其中的一台是Hadoop Master,剩下的4台是Hadoop Slave。
1.准备事项
(1) 安装JDK
使用root用户下载JDK,然后解压到/usr/java目录下。并在/etc/profile文件中添加JDK的路径。
(2) 配置SSH
创建了hadoop用户之后,使用hadoop用户在hadoop用户目录下,创建.ssh文件夹,有的话就不用创建了,将该目录的权限改为700,这个权限的修改要注意的是每个节点都要进行修改。
进入.ssh文件夹, 执行 ssh-keygen -trsa -P '' 创建密钥对,然后,执行 cat id_rsa.pub >> authorized_keys 将公钥复制出一个认证文件,并将该文件的权限更改为600, 可执行命令 chmod 600authorized_keys 将修改后的认证文件使用scp命令发送到每个节点的相同位置上。
使用root用户,修改/etc/ssh/sshd_config文件,将该文件中的如下几行注销:
#RSAAuthentication yes
#PubkeyAuthentication yes
#AuthorizedKeysFile .ssh/authorized_keys
然后将每个节点上的sshd服务重启,执行 service sshd restart 。
最后,就使用ssh+节点HOST名,测试一下是否可以进行无密码链接。可以的话就说明成功了。
(3) 配置Hosts文件
安装好系统了之后,需要用root用户对/etc/hosts进行修改,将5台服务器的IP地址和HOST名都添加到文件中,然后使用scp命令该该文件发送到各个节点。
到此为止,所有的准备事项就做完了,下一步就要开始配置Hadoop了。