1:分布式结构 主节点(一个Master):NameNode、JobTracker、SecondaryNameNode
从节点(两个是:Node1、Node2):DataNode、TaskTracker
2:在各个节点产生加密文件
ssh-keygen -t rsa (跟目录) 并且拷贝到 .ssh目录中去
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
3:编辑各个节点的 /etc/hosts,在该文件中含有所有节点的ip和hostname的映射信息(在window端访问需要在
C:\Windows\System32\drivers\etc 目录host文件添加ip地址和主机名的映射关系)
4:两两节点之间SSH免密码登录(以Master为主,在master主机上操作)
ssh-copy-id -i Node1
scp /root/.ssh/authorized_keys Node1:/root/.ssh/
5:把Master的hadoop目录下logs和tem文件夹删除
6把Mster中的jdk,hadoop文件夹复制到Node1,Node2节点
scp -r /usr/local/jdk Node1:/usr/local/
7:把Master的/etc/profile 复制到Node1和Node2节点,在目标节点执行source /etc/profile
8:编辑Master的配置文件slaves ,改为从节点hostname,分别是Node1和Node2
9:格式化,在Master节点中执行 hadoop namenode -format
10:启动,在Master节点中执行 start-all.sh
*****注意:对于配置文件core-site.xml和mapred-site.xml在所有节点都是相同的