09.Hadoop的安装

Hadoop的安装

1.拖拽安装包上传到/opt/software

2.解压文件到/opt/module

[itwise@node2 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

3查看文件

drwxr-xr-x. 2 itwise itwise   4096 912 2019 bin
drwxr-xr-x. 3 itwise itwise   4096 912 2019 etc
drwxr-xr-x. 2 itwise itwise   4096 912 2019 include
drwxr-xr-x. 3 itwise itwise   4096 912 2019 lib
drwxr-xr-x. 4 itwise itwise   4096 912 2019 libexec
-rw-rw-r--. 1 itwise itwise 147145 94 2019 LICENSE.txt
-rw-rw-r--. 1 itwise itwise  21867 94 2019 NOTICE.txt
-rw-rw-r--. 1 itwise itwise   1366 94 2019 README.txt
drwxr-xr-x. 3 itwise itwise   4096 912 2019 sbin
drwxr-xr-x. 4 itwise itwise   4096 912 2019 share

4.配置环境变量法

[itwise@node2 ~]$ sudo vim /etc/profile.d/my_env.sh
#HADOOP
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=:$PATH:$HADOOP_HOME/bin
export PATH=:$PATH:$HADOOP_HOME:/sbin

重置环境变量

[itwise@node2 ~]$ source /etc/profil

记得测试

5.HADOOP的配置文件修改

在这里插入图片描述

(1)hadoop_env.sh 默认目录,不需要修改

(2)修改配置文件core_site.xml

[itwise@node2 hadoop-3.1.3]$ cd etc/hadoop/

vim core-site.xml
<!-- 指定NameNode的地址 -->
<property>
	<name>fs.defaultFS</name>
	<value>hdfs://node2:8020</value>
</property>
<!-- 指定hadoop数据的存储目录 -->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/module/hadoop-3.1.3/data</value>
</property>
<!-- 配置HDFS网页登录使用的静态用户为itwise -->
<property>
	<name>hadoop.http.staticuser.user</name>
	<value>itwise</value>
</property>
<!-- 配置该itwise(superUser)允许通过代理访问的主机节点 -->
<property>
	<name>hadoop.proxyuser.itwise.hosts</name>
	<value>*</value>
</property>
<!-- 配置该itwise(superUser)允许通过代理用户所属组 -->
<property>
	<name>hadoop.proxyuser.itwise.groups</name>
	<value>*</value>
</property>
<!-- 配置该itwise(superUser)允许通过代理的用户-->
<property>
	<name>hadoop.proxyuser.itwise.users</name>
	<value>*</value>
</property>

配置文件分析

在这里插入图片描述

(3)修改hdfs-site.xml

执行命令:

vim hdfs-site.xml

配置文件节点分配角色:

<!-- nn web端访问地址-->
<property>
	<name>dfs.namenode.http-address</name>
	<value>node2:9870</value>
</property>
<!-- 2nn web端访问地址-->
<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>node4:9868</value>
</property>
<!-- 测试环境指定HDFS副本的数量1 -->
<property>
	<name>dfs.replication</name>
	<value>3</value>
</property>

(4)修改mapred-site.xml

执行命令:

vim mapred-site.xml

配置文件:

<!-- 指定MapReduce程序运行在Yarn上 -->
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

(5)yarn-site.xml

执行命令:

vim yarn-site.xml

配置文件:

<!-- 指定MR走shuffle -->
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>
<!-- 指定ResourceManager的地址-->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>node3</value>
</property>
<!-- 环境变量的继承 -->
<property>
	<name>yarn.nodemanager.env-whitelist</name>
	<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<!-- yarn容器允许分配的最大最小内存 -->
<property>
	<name>yarn.scheduler.minimum-allocation-mb</name>
	<value>512</value>
</property>
<property>
	<name>yarn.scheduler.maximum-allocation-mb</name>
	<value>4096</value>
</property>
<!-- yarn容器允许管理的物理内存大小 -->
<property>
	<name>yarn.nodemanager.resource.memory-mb</name>
	<value>4096</value>
</property>
<!-- 关闭yarn对物理内存和虚拟内存的限制检查 -->
<property>
	<name>yarn.nodemanager.pmem-check-enabled</name>
	<value>false</value>
</property>
<property>
	<name>yarn.nodemanager.vmem-check-enabled</name>
	<value>false</value>
</property>

配置集群的信息1个:

修改workers

vim workers

录入内容如下:

node2
node3
node4

注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。

1.7 配置历史服务器

为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:

修改mapred_site.xml

执行命令:

vim mapred-site.xml

录入内容

<!-- 历史服务器端地址 -->
<property>
	<name>mapreduce.jobhistory.address</name>
	<value>node2:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
	<name>mapreduce.jobhistory.webapp.address</name>
	<value>node2:19888</value>
</property>

1.8 配置日志的聚集

日志聚集概念:应用运行完成以后,将程序运行日志信息上传到HDFS系统上。

日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试。

注意:开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryManager。

开启日志聚集功能具体步骤如下:

修改yarn_site.xml

执行命令

vim yarn-site.xml

录入内容

<!-- 开启日志聚集功能 -->
<property>
	<name>yarn.log-aggregation-enable</name>
	<value>true</value>
</property>
<!-- 设置日志聚集服务器地址 -->
<property>
	<name>yarn.log.server.url</name>
	<value>http://node2:19888/jobhistory/logs</value>
</property>
<!-- 设置日志保留时间为7天 -->
<property>
	<name>yarn.log-aggregation.retain-seconds</name>
	<value>604800</value>
</property>


9同步分发文件**

将hadoop安装报和环境变量分发到 node3、node4节点上:

cd /opt/module
rsync.sh hadoop-3.1.3/
cd /etc/profile.d/
scp my_env.sh root@node3:$PWD
scp my_env.sh root@node4:$PWD

10重新加载环境

ssh node3 source /etc/profile
ssh node4 source /etc/profile

11验证环境变量

ssh node3 hadoop version
ssh node4 hadoop version

12启动集群:

如果集群是第一次启动,需要在node2节点格式化NameNode(注意格式化之前,一定要先停止上次启动 的所有namenode和datanode进程,然后再删除data和log数据

初始化启动集群:

[itwise@node2 hadoop-3.1.3]$ bin/hdfs namenode -format

开启dfs node3 node4自动生产了目录

[itwise@node2 hadoop-3.1.3]$ sbin/start-dfs.sh

在resourceManage节点

[itwise@node2 hadoop-3.1.3]$ sbin/start-yarn.sh

在这里插入图片描述

在这里插入图片描述



e2 hadoop-3.1.3]$ bin/hdfs namenode -format


开启dfs node3 node4自动生产了目录

[itwise@node2 hadoop-3.1.3]$ sbin/start-dfs.sh


在resourceManage节点

[itwise@node2 hadoop-3.1.3]$ sbin/start-yarn.sh

  • 15
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值