hadoop四种集群的搭建

环境配置

1.配置网络
在这里插入图片描述
命令:vi /etc/sysconfig/network-script/ifcfg-eno1666666
网络刷新:service network restart

2.修改windows主机的映射

3.修改linux中主机的映射
vi /etc/hosts

4.修改主机名
vi /etc/hostname

5.查看防火墙状态
firewall-cmd --state
停止firewall
systemctl stop firewalld.service
禁止firewall开机启动
systemctl disable firewalld.service

6.关闭selinux
进入到/etc/selinux/config文件
vi /etc/selinux/config
将SELINUX=enforcing改为SELINUX=disabled

7.创建用户
useradd hadoop
修改密码:sudo passwd hadoop

8.配置sudo
vi /etc/sudoers
在这里插入图片描述

9.配置免密登录
生成密钥对:ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免密登录的目标机器上:ssh-copy-id hadoop1

jdk的安装

  1. 查看jdk是否安装
    rpm –qa | grep java
  2. 解压jdk压缩包 tar –axvf jdkxxxxxxx.gz –C ~/jdk
  3. 配置java环境变量
    在这里插入图片描述
    刷新配置文件:source /etc/profile

伪分布式的集群的搭建

1.配置:hadoop-env.sh
在这里插入图片描述
2.配置:core-site.xml

指定HDFS中NameNode的地址 
<property>
	<name>fs.defaultFS</name>
    <value>hdfs://hadoop101:9000</value>
</property>

指定hadoop运行时产生文件的存储目录
<property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>

3.配置:hdfs-site.xml

<!-- 指定HDFS副本的数量 -->
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>

4.配置yarn-env.sh

export JAVA_HOME=/opt/module/jdk1.7.0_79

5.配置yarn-site.xml

<!-- reducer获取数据的方式 -->
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
</property>

<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop101</value>
</property>

6.mapred-env.sh

export JAVA_HOME=/opt/module/jdk1.7.0_79

7.配置: (对mapred-site.xml.template重新命名为) mapred-site.xml

<!-- 指定mr运行在yarn上 -->
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

8.启动集群

  1. 格式化namenode
    hdfs namenode -format
  2. 启动namenode
    hadoop-daemon.sh start namenode
  3. 启动datanode
    hadoop-daemon.sh start datanode
  4. 启动resourcemanager
    yarn-daemon.sh start resourcemanager
  5. 启动nodemanager
    yarn-daemon.sh start nodemanager

完全分布式部署Hadoop

1.集群规划

hadoop1hadoop2hadop3
HDFSNameNode
DataNode
DataNodeSecondaryNameNode
DataNode
YARNNodeManagerResourceManager
NodeManager
NodeManager

2.配置
core-site.xml

<!-- 指定HDFS中NameNode的地址 -->
<!—这个必须和namenode在同一节点-->
	<property>
		<name>fs.defaultFS</name>
        <value>hdfs://hadoop1:9000</value>
	</property>
	<!-- 指定hadoop运行时产生文件的存储目录 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/module/hadoop-2.7.2/data/tmp</value>
	</property>

hadoop-env.sh

export JAVA_HOME=/opt/module/jdk1.7.0_79

hdfs-site.xml

<configuration>	
	<property>
		<name>dfs.replication</name>
		<value>3</value>
	</property>
和seconddarynamenode在一起
	<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop3:50090</value>
    </property>
</configuration>

slaves

hadoop102
hadoop103
hadoop104
所有datanode

yarn-env.sh

export JAVA_HOME=/opt/module/jdk1.7.0_79

yarn-site.xml

<!-- reducer获取数据的方式 -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

<!-- 指定YARN的ResourceManager的地址 -->
	<property>
		<name>yarn.resourcemanager.hostname</name>
		<value>hadoop2</value>
	</property>

mapred-env.sh

export JAVA_HOME=/opt/module/jdk1.7.0_79

mapred-site.xml

<!-- 指定mr运行在yarn上 -->
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>

3.给其他节点分发hadoop包

4.集群测试
如果集群是第一次启动,需要格式化namenode
hdfs namenode -format
启动HDFS:
start-dfs.sh
启动yarn
start-yarn.sh
注意:Namenode和ResourceManger如果不是同一台机器,不能在NameNode上启动 yarn,应该在ResouceManager所在的机器上启动yarn。


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值