Hadoop 2.x分布式集群部署

hadoop,spark,kafka交流群:224209501

标签(空格分隔): hadoop

1,根据集群配置合理规划hadoop集群组件

本节主要讲述:如何依据集群机器配置(内存、硬盘、CPU核)合理规划Hadoop服务组件部署的几点(表格规划、形象生动)
主机内存是8G,硬盘720G,cpu4核。为了提高运行效率,会将datanode和nodemanager在同一台机器上。
具体配置如下:

配置名hadoop.hosthadoop1.hosthadoop2.host
cpu111
内存2G1.5G1.5G
硬盘20G20G20G
hdfsnamenode datanodedatanodesecondarynamenode datanode
yarnnodemanagernodemanager resourcemanagernodemanager
MRhistoryserver

2,为集群部署搭建集群主机环境

本节主要内容如下:对克隆虚拟机进行修改网卡名称和配置IP地址与主机名,配置集群中三台机器的IP地址和主机名称的映射。

集群部署是需要多台主机,这里选择使用三台虚拟机完成部署任务。克隆晚虚拟机之后,在打开的虚拟机中通过 ifcongig 查看网络设置,发现只有 eth1 的网络设置,没有 eth0 的网络设置,并且
eth1 的网络信息,与/etc/sysconfig/network-script/ifcfg-eth0 中的设置不同。
解决办法是执行命令

    sudo vi /etc/udev/rules.d/70-persistent-net.rules

然后执行如下操作:
- 注释掉或删除包含 eth0 的行
- 把包含“eth1”行的“eth1”修改成“eth0”,完成后如下图:虚拟机修改地址后.png-5.5kB
- 拷贝这里的原eth1的物理地址。
- 执行命令sudo vi /etc/sysconfig/network-scripts/ifcfg-eth0
将三中复制的物理地址粘贴到如下图处:
复制物理地址.png-9.2kB
修改主机名及IP地址,并完成映射:
- 执行 sudo vi /etc/sysconfig/network
- 将主机名修改为:hadoop1.host;hadoop2.host
- 将两台克隆机的IP地址分别修改为:192.168.154.129和192.168.154.130
- 执行 ‘sudo vi /etc/hosts’命令完成IP地址映射。IP映射.png-3.3kB
注:这个主机名与IP地址映射要在主机,三台虚拟机中都配置。

3,部署集群

本节主要讲:以【Hadoop 2.x伪分布式部署】为模板,理解各个服务组件部署节点的配置,配置部署安装集群。

  • 首先在三台主机上执行sudo mkdir /opt/appsudo chmod 777 /opt/app
  • 然后执行tar -zxvf /opt/softwares/hadoop-2.5.0.tar.gz /opt/app/
  • 然后打开nodepad++,连接上主机hadoop2.host对hadoop的xml文件进行配置。
    具体如下:
    (1) 首先在hadoop-env.sh,yarn-env
    .hs,mapred-env.sh添加java命令的路径:
    /opt/modules/jdk1.7.0_67
    (2) 修改core-site.xml文件内容如下:
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop.host:8020</value>
        </property>
        <property>
            <name>hadoop.http.staticuser.user</name>
            <value>hadoop</value>
        </property>

(3) 修改hdfs-site.xml,文件将namenode和secondarynamenode分别部署在hadoop.host和hadoop2.host上,具体内容如下:
hdfsxml.png-16.5kB
(4) 修改yarn-site.xml文件将resourcemanager部署在hadoop1.host上,具体修改内容如下:
yarnxml.png-6.2kB
(5) 修改mapred-site.xml文件将jobhistory服务部署在hadoop1.host上,具体内容修改如下:
mapredxml.png-12.6kB
(5) 修改slaves文件,将nodemanager和datanode分别部署在三台主机上,修改内容如下:
slaves.png-1.9kB
(6) 执行命令下面命令将配置好的hadoop文件分别传递到另外两台主机上去:

scp -r hadoop-2.5.0/ hadoop@hadoop1.host:/opt/app/
scp -r hadoop-2.5.0/ hadoop@hadoop2.host:/opt/app/

4,测试集群

本节主要讲述:启动HDFS、YARN以后,对集群进行基本测试,如上传文件,运行WordCount程序等。

4.1 启动集群

  • 启动HDFS。首先在主机hadoop.host中执行:sbin/hadoop-daemon.sh start namenode。然后分别在三台虚拟机中执行sbin/hadoop-daemon.sh start datanode
  • 启动YARN。在主机hadoop1.host执行sbin/yarn-daemon.sh start resourcemanager。分别在三台主机中执行sbin/yarn-daemon.sh start nodemanager
  • 启动historyserver。在主机miaodongua2.host执行:sbin/mr-jobhistory-daemon.sh start historyserver
    上述指令执行完成后分别再三台主机控制台中输入jps命令,查看服务是否启动成功。出现如下内容证明成功。
    1.png-4kB
    2.png-4.3kB
    3.png-4.2kB

4.2 测试集群

  • 创建目录。
     bin/hdfs dfs -mkdir -p mapreduce/wordcount/input
  • 上传/opt/datas目录下的文件wc.input和wc1.input。
bin/hdfs dfs -put /opt/datas/wc.input mapreduce/wordcount/input    
bin/hdfs dfs -put /opt/datas/wc1.input mapreduce/wordcount/input

以上两个步骤操作成功后,会在生成目录mapreduce/wordcount/input,而且目录下回多出两文件:
目录.png-9.9kB

  • 运行wordcount程序。执行成功.png-39.1kB

  • 查看生成结果。产看结果.png-12.3kB

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值