Ubuntu16.04 安装配置Hadoop详细步骤(单机版)

前提条件

(1)Ubuntu16.04 机子一台,尽量可以联网。

(2)已安装jdk,具体安装教程请看我以前的文章。

下载Hadoop

Hadoop下载地址,推荐下载2.7.7版本,因为它比较稳定。

使用wget下载:

root@instance-cqxyyrb2:/# mkdir Hadoop
root@instance-cqxyyrb2:/# cd Hadoop/
root@instance-cqxyyrb2:/Hadoop# wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz

下载成功后如:

root@instance-cqxyyrb2:/Hadoop# ls
hadoop-2.7.7.tar.gz

将Hadopp解压到根目录下Hadoop文件夹内,解压时间大概半分钟。

root@instance-cqxyyrb2:/Hadoop# tar -xzvf hadoop-2.7.7.tar.gz

解压后如:

root@instance-cqxyyrb2:/Hadoop# ls
hadoop-2.7.7  hadoop-2.7.7.tar.gz

配置Hadoop

1.配置/etc/profile

在/etc/profile内配置Hadoop安装路径,在结尾加上下列内容

export HADOOP_HOME=/Hadoop/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

刷新配置文件:

root@instance-cqxyyrb2:/Hadoop/hadoop-2.7.7# source /etc/profile

2.修改hostname

查看本机ip:

root@instance-cqxyyrb2:/Hadoop/hadoop-2.7.7/etc/hadoop# ifconfig
eth0      Link encap:Ethernet  HWaddr 00:16:3e:0c:2c:e8  
          inet addr:172.18.118.58  Bcast:172.18.127.255  Mask:255.255.240.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:711983 errors:0 dropped:0 overruns:0 frame:0
          TX packets:595554 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000 
          RX bytes:394480464 (394.4 MB)  TX bytes:158758390 (158.7 MB)

lo        Link encap:Local Loopback  
          inet addr:127.0.0.1  Mask:255.0.0.0
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:1393574 errors:0 dropped:0 overruns:0 frame:0
          TX packets:1393574 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1 
          RX bytes:121113970 (121.1 MB)  TX bytes:121113970 (121.1 MB)

得到本机ip为172.18.118.58

配置/etc/hosts和/etc/hostname文件实现修改本机的hostname

将/etc/hosts内容修改为:

173.18.118.58 master
127.0.0.1  localhost  localhost.localdomain

将/etc/hostname内容修改为:

master

 保存后重启查看hostname:

root@master:~# hostname
master

可以看到hostname修改成功

3.配置ssh

进入~目录:

root@master:~# cd

生成ssh秘钥,输入ssh-keygen -t rsa后一直按enter:


root@master:~# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): 
Created directory '/root/.ssh'.
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:8C72/b14V6HCPSIEVRIHEgHClWNeUZK3bB4KDpWGCLo root@master
The key's randomart image is:
+---[RSA 2048]----+
|o o.oo+*B*+o     |
|.. o.B +o.o      |
|.   = + + .      |
| . . o o *     . |
|E   o . S o . . .|
|     . o o + +  .|
|      o . . o . .|
|     . o .   o. .|
|        . ..o.oo |
+----[SHA256]-----+

授权:

root@master:~# cat .ssh/id_rsa.pub >> .ssh/authorized_keys

检验ssh:

[root@master ~]# ssh master
Last login: Thu Mar 14 11:45:09 2019 from master
[root@master ~]# 

表示配置成功。 

4.配置Hadoop配置文件

进入解压后的文件夹:

root@master:/Hadoop# cd hadoop-2.7.7/
root@master:/Hadoop/hadoop-2.7.7# ls
bin  etc  include  lib  libexec  LICENSE.txt  NOTICE.txt  README.txt  sbin  share

Hadoop需要配置的核心文件主要有以下几个:

       1、hadoop-env.sh

       2、core-site.xml

       3、hdfs-site.xml

       4、mapred-site.xml

       5、yarn-site.xml

       6、master

       7、workers

       8、slaves

这些文件都在Hadoop安装目录内的/etc/hadoop内,下面我们一个一个地来配置这些文件。

首先进入配置文件所在目录:

(1)hadoop-env.sh

hadoop-env.sh内配置的是JAVA_HOME,使用vi打开编辑:

root@master:/Hadoop/hadoop-2.7.7/etc/hadoop# vi hadoop-env.sh 

找到下列内容:

# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
export JAVA_HOME=${JAVA_HOME}

将# export JAVA_HOME=修改为:

#修改前
export JAVA_HOME=${JAVA_HOME}

#修改后
export JAVA_HOME=/Java/jdk1.8

(2)core-site.xml

core-site.xml内存储的是Hadoop的核心配置,包括namenode的地址等。

修改<configuration></configuration>内的内容为:

<configuration>

    <!-- 指定HDFS 的namenode的通信地址,这里默认为本地 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>

    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/Hadoop/tmp</value>
    </property>

</configuration>

(3)hdfs-site.xml

hdfs-site.xml内存储的是HDFS的配置

修改<configuration></configuration>内的内容为:

<configuration>

<!-- 设置namenode的http通讯地址,这里填本机 -->
<property>
  <name>dfs.http.address</name>
  <value>hdfs://master:50070</value>
</property> 

<!-- 设置secondarynamenode的http通讯地址 -->
<property>
        <name>dfs.namenode.secondary.http-address</name>
       <value>master:50090</value>
</property>

<!-- 设置hdfs副本数量 -->
<property>
        <name>dfs.replication</name>
        <value>1</value>
</property>

<!-- namenode存放地址-->
<property>
        <name>dfs.name.dir</name>
        <value>/Hadoop/data/name</value>
</property>

<!--datanode 存放地址-->
<property>
        <name>dfs.data.dir</name>
        <value>/Hadoop/data/datanode</value>
</property>

<!--临时文件存储地址-->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/Hadoop/data/hadoop/tmp</value>
</property>

</configuration>

(4)mapred-site.xml

mapred-site.xml内存储的是mapreduce使用的配置,包括计算框架,内存大小等等。

修改<configuration></configuration>内的内容为:

<configuration>

    <!--指定计算框架为yarn-->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

</configuration>

(5)yarn-site.xml

yarn-site.xml内存储的是yarn计算框架的配置,包括resourcemanager的hostname等等

修改<configuration></configuration>内的内容为:

<configuration>

<!-- 设置resourcemanager为master-->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
</property>

</configuration>

(6)master

master文件存储的是namenode和secondarynamenode的hostname

添加:

master

(7)slaves

slaves文件存储的是datanode的hostname

添加:

master

(8)workers

workers文件存储的是所有在工作的机器的hostname,包括namenode、datanode、secondarynamenode的hostname

添加:

master

要成功启动Hadoop还需要配置以下几个文件:

         1、start-dfs.sh

         2、stop-dfs.sh

         3、start-yarn.sh

         4、stop-yarn.sh

这些文件在Hadoop安装目录下的sbin文件夹内。

下面依次配置这些文件。

1.start-dfs.sh、stop-dfs.sh

使用vi打开文件,在文件末尾追加内容:

HDFS_DATANODE_USER=root 
HADOOP_SECURE_DN_USER=hdfs 
HDFS_NAMENODE_USER=root 
HDFS_SECONDARYNAMENODE_USER=root 

2.start-yarn.sh 、stop-yarn.sh

使用vi打开文件,在文件末尾追加内容:

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn 
YARN_NODEMANAGER_USER=root

最后创建Hdoop运行时所需的文件夹:

root@master:/Hadoop/hadoop-2.7.7/sbin# mkdir -p /Hadoop/data/tmp
root@master:/Hadoop/hadoop-2.7.7/sbin# mkdir -p /Hadoop/data/name
root@master:/Hadoop/hadoop-2.7.7/sbin# mkdir -p /Hadoop/data/datanode

(3)启动Hadoop

第一次启动Hadoop之前需要格式化namenode:

root@master:/Hadoop# hdfs namenode -format

启动之前使用jps查看hadoop节点运行情况:
 

root@master:/Hadoop/hadoop-2.7.7# jps
37650 Jps

最紧张的时刻终于到来了,启动Hadoop,一起期待吧!

root@master:~# start-all.sh 
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [master]
master: starting namenode, logging to /Hadoop/hadoop-2.7.7/logs/hadoop-root-namenode-master.out
master: starting datanode, logging to /Hadoop/hadoop-2.7.7/logs/hadoop-root-datanode-master.out
Starting secondary namenodes [master]
master: starting secondarynamenode, logging to /Hadoop/hadoop-2.7.7/logs/hadoop-root-secondarynamenode-master.out
starting yarn daemons
starting resourcemanager, logging to /Hadoop/hadoop-2.7.7/logs/yarn-root-resourcemanager-master.out
master: starting nodemanager, logging to /Hadoop/hadoop-2.7.7/logs/yarn-root-nodemanager-master.out
root@master:~# jps
26673 NameNode
27155 ResourceManager
27268 NodeManager
27622 Jps
26971 SecondaryNameNode
26783 DataNode

可以看到启动成功啦。

  • 6
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
以下是Ubuntu 16.04安装Hadoop 3.1.3的步骤: 1. 下载Hadoop 3.1.3的二进制文件,可以从官网下载:https://hadoop.apache.org/releases.html#Download 2. 解压缩下载的文件,将解压后的文件夹移动到/usr/local/hadoop目录下: sudo tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local/ sudo mv /usr/local/hadoop-3.1.3 /usr/local/hadoop 3. 配置Hadoop环境变量,打开/etc/profile文件,添加以下内容: export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin 4. 配置Hadoop的核心文件,打开/usr/local/hadoop/etc/hadoop/hadoop-env.sh文件,将JAVA_HOME设置为JDK的安装路径: export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 5. 配置Hadoop的主节点和从节点,打开/usr/local/hadoop/etc/hadoop/core-site.xml文件,添加以下内容: <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:900</value> </property> </configuration> 6. 配置Hadoop的HDFS,打开/usr/local/hadoop/etc/hadoop/hdfs-site.xml文件,添加以下内容: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> 7. 配置Hadoop的YARN,打开/usr/local/hadoop/etc/hadoop/yarn-site.xml文件,添加以下内容: <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> 8. 格式化HDFS,执行以下命令: hdfs namenode -format 9. 启动Hadoop,执行以下命令: start-all.sh 以上就是Ubuntu 16.04安装Hadoop 3.1.3的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值