hadoop-3.3.0 集群搭建

安装 hadoop-3.3.0

1.1. 路径

服务器基础环境准备
安装包目录结构
配置文件的修改
- 第一类 1个  hadoop-env.sh
- 第二类  4个  core|hdfs|mapred|yarn-site.xml
  - site表示的是用户定义的配置,会覆盖default中的默认配置。
  - core-site.xml  核心模块配置
  - hdfs-site.xml   hdfs文件系统模块配置
  - mapred-site.xml  MapReduce模块配置
  - yarn-site.xml  yarn模块配置
- 第三类 1个  workers  
scp安装包到其他机器
Hadoop环境变量配置
hadoop namenode format
Hadoop集群启动
Hadoop初体验

1.2. 实现

1.2.1. 服务器基础环境准备

ip、主机名
hosts映射 别忘了windows也配置
防火墙关闭
时间同步
免密登录  node1---->node1 node2 node3
JDK安装

1.2.2. 安装包目录结构

#上传安装包到 /export/software 解压
[root@node1 ~]# cd /export/software/
[root@node1 software]# tar -zxvf hadoop-3.3.0-Centos7-64-with-snappy.tar.gz -C /export/server/

 bin    #hadoop核心脚本 最基础最底层脚本
 etc    #配置目录
 include
 lib
 libexec
 LICENSE.txt
 NOTICE.txt
 README.txt
 sbin  #服务启动 关闭 维护相关的脚本
 share #官方自带实例  hadoop相关依赖jar

1.2.3. 配置文件的修改

cd /export/server/hadoop-3.3.0/etc/hadoop

hadoop-env.sh

export JAVA_HOME=/export/server/jdk1.8.0_241

#文件最后添加
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

core-site.xml

<!-- 设置默认使用的文件系统 Hadoop支持file、HDFS、GFS、ali|Amazon云等文件系统 -->
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://node1:8020</value>
</property>

<!-- 设置Hadoop本地保存数据路径 -->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/export/data/hadoop-3.3.0</value>
</property>

<!-- 设置HDFS web UI用户身份 -->
<property>
    <name>hadoop.http.staticuser.user</name>
    <value>root</value>
</property>

<!-- 整合hive 用户代理设置 -->
<property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>
</property>

<property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>
</property>

hdfs-site.xml

<!-- 设置SNN进程运行机器位置信息 -->
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>node2:9868</value>
</property>

mapred-site.xml

<!-- 设置MR程序默认运行模式: yarn集群模式 local本地模式 -->
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>

<!-- MR程序历史服务器端地址 -->
<property>
  <name>mapreduce.jobhistory.address</name>
  <value>node1:10020</value>
</property>
 
<!-- 历史服务器web端地址 -->
<property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>node1:19888</value>
</property>

<property>
  <name>yarn.app.mapreduce.am.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>

<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>

<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>

yarn-site.xml

<!-- 设置YARN集群主角色运行机器位置 -->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>node1</value>
</property>

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

<!-- 是否将对容器实施物理内存限制 -->
<property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
</property>

<!-- 是否将对容器实施虚拟内存限制。-->
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>

<!-- 开启日志聚集 -->
<property>
  <name>yarn.log-aggregation-enable</name>
  <value>true</value>
</property>

<!-- 设置yarn历史服务器地址 -->
<property>
    <name>yarn.log.server.url</name>
    <value>http://node1:19888/jobhistory/logs</value>
</property>

<!-- 保存的时间7天 -->
<property>
  <name>yarn.log-aggregation.retain-seconds</name>
  <value>604800</value>
</property>

workers

node1
node2
node3

1.2.4. scp安装包到其他机器

cd /export/server

scp -r hadoop-3.3.0 root@node2:/export/server
scp -r hadoop-3.3.0 root@node3:/export/server

1.2.5. Hadoop环境变量配置

vim /etc/profile

# set hadoop env
export HADOOP_HOME=/export/server/hadoop-3.3.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
[root@node1 server]# scp /etc/profile node2:/etc/
[root@node1 server]# scp /etc/profile node3:/etc/

[root@node1 server]# source /etc/profile
[root@node2 ~]# source /etc/profile
[root@node3 ~]# source /etc/profile

1.2.6. hadoop namenode format

(首次启动)格式化namenode

hdfs namenode -format

1.2.7. 在windows配置 ip地址映射

C:\Windows\System32\drivers\etc\hosts 文件

192.168.52.161 node1 
192.168.52.162 node2
192.168.52.163 node3

1.2.8. Hadoop集群启动

1.2.8.1. 单节点逐个启动
[root@node1 server]# hdfs --daemon start namenode
[root@node1 server]# hdfs --daemon start datanode
[root@node1 server]# yarn --daemon start resourcemanager
[root@node1 server]# yarn --daemon start nodemanager
[root@node1 server]# mapred --daemon start historyserver

[root@node2 ~]# hdfs --daemon start secondarynamenode
[root@node2 ~]# yarn --daemon start nodemanager
[root@node2 ~]# hdfs --daemon start datanode

[root@node3 ~]# yarn --daemon start nodemanager
[root@node3 ~]# hdfs --daemon start datanode
1.2.8.2. 脚本一键启动
[root@node1 ~]# start-dfs.sh 
[root@node1 ~]# start-yarn.sh 
[root@node1 server]# mapred --daemon start historyserver

在这里插入图片描述

1.2.9. Hadoop集群关闭

1.2.9.1. 单节点逐个启动
[root@node1 server]# hdfs --daemon stop namenode
[root@node1 server]# hdfs --daemon stop datanode
[root@node1 server]# yarn --daemon stop resourcemanager
[root@node1 server]# yarn --daemon stop nodemanager
[root@node1 server]# mapred --daemon stop historyserver

[root@node2 ~]# hdfs --daemon stop secondarynamenode
[root@node2 ~]# yarn --daemon stop nodemanager
[root@node2 ~]# hdfs --daemon stop datanode

[root@node3 ~]# yarn --daemon stop nodemanager
[root@node3 ~]# hdfs --daemon stop datanode
1.2.9.2. 脚本一键启动
[root@node1 ~]# stop-dfs.sh 
[root@node1 ~]# stop-yarn.sh 
[root@node1 server]# mapred --daemon stop historyserver

1.2.10. 编写自定义一键脚本

1.2.10.1. 自定义一键启动

[root@node1 onekey]# vim /onekey/hd1_start.sh

#!/bin/bash

/export/server/hadoop-3.3.0/sbin/start-dfs.sh
/export/server/hadoop-3.3.0/sbin/start-yarn.sh
/export/server/hadoop-3.3.0/bin/mapred --daemon start historyserver
1.2.10.2. 自定义一键关闭

[root@node1 onekey]# vim /onekey/hd2_stop.sh

#!/bin/bash

/export/server/hadoop-3.3.0/sbin/stop-dfs.sh
/export/server/hadoop-3.3.0/sbin/stop-yarn.sh
/export/server/hadoop-3.3.0/bin/mapred --daemon stop historyserver
1.2.10.3. 修建自定义脚本权限
[root@node1 onekey]# chmod 777 /onekey/*
1.2.10.4. 启动测试
[root@node1 onekey]# /onekey/hd1_start.sh
[root@node1 onekey]# jps
1.2.10.5. 关闭测试
[root@node1 onekey]# /onekey/hd2_stop.sh
[root@node1 onekey]# jps

1.2.11. Hadoop初体验

HDFS集群:http://node1:9870/
YARN集群:http://node1:8088/
historyserver:http://node1:19888/\
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值