大数据之Hadoop完全分布式集群配置

一. Yarn上运行MapReduce

大体步骤:

  1. 准备一台客户机
  2. 安装jdk
  3. 配置环境变量
  4. 安装hadoop
  5. 配置环境变量
  6. 配置集群yarn上运行
  7. 启动,测试集群
  8. 在yarn上运行wordcount案例

配置集群

  1. 配置yarn-env.sh 配置Java_HOME环境变量
  2. 配置yarn-site.xml
<property>
	<name>yarn-nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>
<property>
	<name>yarn-resourcemanager.hostname</name>
	<value>hadoop101</value>
</property>
  1. 配置mapred-env.sh 配置Java_HOME环境变量
  2. 配置mapred-site.xml
// 指定MR运行在Yarn上
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

启动集群:
1)启动NameNode: sbin/hadoop-daemon.sh start namenode
2)启动DataNode:sbin/hadoop-daemon.sh start datanode
3)启动resourceManager: sbin/yarn-daemon.sh start resourcemanager
4)启动nodemanager:sbin/yarn-daemon.sh start/stop nodemanager
http://hadoop101:8088

二. 优化配置

1. 修改临时目录

  1. 停止进程
  2. 修改hadoop.tmp.dir (core-site.xml)
  3. 将logs文件夹删除
  4. 进入tmp目录删除对应的hadoop临时文件夹
  5. 格式化NameNode
  6. 启动所有进程
  7. 查看所修改的临时文件夹的目录

2. 配置历史服务器
mapred-site.xml

 <property>
    <name>mapreduce.jobhistory.address</name>
    <value>localhost:10020</value>
 </property>
 <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>localhost:19888</value>
 </property>
 
sbin/mr-jobhistory-daemon.sh start historyserver

三. 完全分布式集群搭建

scp命令
scp -r 源路径 root@目标地址

ssh配置
配置ssh无密登陆
在这里插入图片描述
操作步骤:

  1. 进入.ssh文件输入ssh-keygen -t rsa
  2. ssh-copy-id 目标主机

注意,访问自己的无密登陆也需要配置。

搭建集群

1. 集群规划
Hadoop101: NameNode DataNode NodeManager
Hadoop102: DataNode ResourceManager NodeManager
Hadoop103: SecondaryNameNode DataNode NodeManager

2. 配置文件
core-site.xml:

 <property>
         <name>fs.defaultFS</name>
         <value>hdfs://hadoop101:9000</value>
 </property>
 <property>
         <name>hadoop.tmp.dir</name>
         <value>/opt/module/hadoop-3.0.3/data/tmp</value>
 </property>

hdfs-site.xml hadoop-env.sh(配置JavaHome)

<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>hadoopXXX:50090</value>
</property>

slaves:
hadoop101
hadoop102
hadoop103

yarn-site.xml yarn-env.sh(配置JAVA_HOME)

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop102</value>
</property>

mapred-site.xml mapred-env.sh(配置JAVA_HOME)

<property>
      <name>mapreduce.framework.name</name>
        <value>yarn</value>
        </property>
<property>
  <name>yarn.app.mapreduce.am.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.0.3</value>
</property>
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.0.3</value>
</property>
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.0.3</value>
</property>
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.0.3</value>
</property>
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.0.3</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop101:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop101:19888</value>
</property>

3. 启动集群
第一步:在namenode节点上格式化集群 bin/hdfs namenode -format
第二步:启动集群 在Namenode中运行:sbin/start-dfs.sh;在ResourceManager中运行:sbin/start-yarn.sh

Hadoop启停方式:

  1. 分别启动HDFS组件:
    hadoop-daemon.sh|yarn-daemon.sh start|stop namenode|datanode

  2. 整体启动:
    start-dfs.sh start-yarn.sh

  3. 全部启动(官方不推荐):
    start-all.sh stop-all.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值