CentOS 7 安装Apache hadoop-2.7.7

Centos 7安装Apache hadoop

1 前言(前提条件)

在Linux上安装Apache Hadoop之前,必须保证2点 。

  1. Java™ must be installed. Recommended Java versions are described at HadoopJavaVersions.
  2. ssh must be installed and sshd must be running to use the Hadoop scripts that manage remote Hadoop daemons if the optional start and stop scripts are to be used. Additionally, it is recommmended that pdsh also be installed for better ssh resource management.

简单来说就是需要安装合适的Java运行环境,配置集群节点之间的ssh免密登录。

2 Linux安装Java

  • 下载相关的Linux的JDK

  • 解压JDK到指定目录,并配置环境变量

    • tar -zxvf -C /opt/module/
    • vim /etc/profile
    export JAVA_HOME=/opt/module/java-1.8.0_141-bin
    export PATH=$PATH:$JAVA_HOME/bin
    
  • source /etc/profile

  • java -version

启动ntpd服务

3 Linux配置SSH免密登录

假如之前没有安装ssh,首先得安装ssh先,如果已安装请忽略。

  $ sudo apt-get install ssh
  $ sudo apt-get install pdsh

在不同的节点上分别按以下步骤进行。

  • ssh-keygen -t rsa
  • ssh-copy-id shufang101/102/103
  • 以此类推,在每台节点以此配置
  • 通过ssh shfuang@shufang101 来验证是否配置完成

4 Hadoop安装与配置

4.1 下载并安装Linux上编译过的hadoop包

tar -zxvf hadoop-2.7.2-bin.tar.gz -C /opt/module/

#配置环境变量
export HADOOP_HOME=/opt/module/hadoop-2.7.2-bin
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

#验证 
hadoop jar $HADOOP_HOME/share/hadoop/examples/.....jar [params]

4.2 配置相关的Hadoop配置文件并分发

具体配置参数可以参考官网

下面开始简单的配置保证集群可以运行

4.2.1 配置core-site.xml

vim core-site.xml

<!--指定HDFS namenode的地址-->
<property>
	<name>fs.defaultFS</name>
	<value>hdfs://shufang101:9000</value>
</property>
<!--指定Hadoop运行时产生文件的存储目录-->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>

4.2.1 配置hdfs-site.xml

vim hdfs-site.xml

<!--指定HDFS存储备份数量-->
<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<!--指定Hadoop sencondary namenode的主机位置-->
<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>shufang103:50090</value>
</property>

4.2.1 配置yarn-env.sh

vim yarn-env.sh

export JAVA_HOME=$JAVA_HOME

4.3.4 配置vim yarn-site.xml

vim yarn-site.xml

<!--Reducer获取数据的方式-->
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>
<!--指定YARN的ResourceManager的地址-->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>shufang102</value>
</property>

4.3.5 配置mapred-site.xml

cp mapred-site.xml.template mapred-site.xml ;

vim mapred-site.xml

<!--指定YARN的ResourceManager的地址-->
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

4.3.6 可选JVM配置

vim hadoop-env.sh

# For example, To configure Namenode to use parallelGC and a 4GB Java Heap, the following statement should be added in hadoop-env.sh
export HDFS_NAMENODE_OPTS="-XX:+UseParallelGC -Xmx4g"

4.3.7 分发整个HadoopHome目录下的所有内容到所有节点

cd /opt/module
xsync hadoop-2.7.2-bin
#编写一个安全拷贝差异的脚本文件
cd ~
mkdir bin
cd bin/
vim xsync
chmod 777 xsync

#!/bin/bash 
parCounts=$#

if((parCounts==0));then 
echo no args;
exit;
fi

p1=$1
fname=`basename $p1`
echo fname=$fname

pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

user=$(whoami)

for((host=102;host<104;host++));
	do
		rsync -rvl $pdir/$fname $user@shufang$host:$pdir/
	done

4.3.8 修改slaves

vim slaves

#将localhost改成以下内容
shufang101
shufang102
shufang103

4.3.9 配置MR任务的历史服务器

vim mapred-site.xml

<!--mapred-job历史服务器的配置-->
<!--mapred-job服务端的地址-->
<property>
        <name>mapreduce.jobhistory.address</name>
        <value>shufang101:10020</value>
</property>
<!--历史服务器的web端的地址-->
<property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>shufang101:19888</value>
</property>

4.3.10 配置YARN的日志聚集

vim yarn-site.xml

<!-- 开启日志聚集-->
<property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
</property>
<!-- 开启日志聚集日志保留时间为7天-->
<property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
</property>

5 格式化HDFS,启动HDFS

hdfs namenode -format
#启动集群
start-dfs.sh 
start-yarn.sh
#关闭集群
stop-dfs.sh 
stop-yarn.sh
#通过jps进行查看
jps

# 通过 192.168.93.101:50070 访问hdfs nn的WebUI界面
# 通过 192.168.93.103:50090 访问hdfs snn的WebUI界面

6 启动YARN

start-yarn.sh 
# 通过 192.168.93.102:8088  访问yarn的WebUI界面
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值