在hadoop伪分布的安装基础上,进行hadoop的集群安装。
本机实验采用三个节点,安装操作系统为centos,假设每台机子的hostname分别为hadoop、hadoop1、hadoop2,ip地址分别为192.168.0.1、192.168.0.2、192.168.0.3,
参照hadoop的伪分布部署顺序进行,其中需要进行修改的地方有
<1>重新配置/etc/hosts,将集群中所有的ip地址与主机名相对应
192.168.0.1 hadoop
192.168.0.2 hadoop1
192.168.0.3 hadoop2
<2>ssh 免密码登陆
将集群中的各个节点生成的authorized_keys文件中的内容合并到一个authorized_keys中,并且将这个合并后的authorized_keys文件重新拷贝到节点中的各个主机中,这样使节点之间的主机可以相互免密码登陆
<3>修改hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value> ----->将此处改为2,表示一个数据有多少个备份
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
<4>修改master和slaves文件
vi master 在文件中加入如下内容
hadoop
用于指定集群中那个主机是主节点
vi slaves 加入如下内容
hadoop1
hadoop2
用于指定集群中哪个主机是从节点。
<5>在主节点中,也就是主机hadoop中执行start-all.sh命令,整个集群开始运行