hadoop安装java_Hadoop安装

本教程详细介绍了在Ubuntu系统中安装和配置Hadoop的步骤,包括创建Hadoop用户组和用户、配置SSH、下载及解压Hadoop、修改环境变量、配置HDFS、MapReduce以及启动和关闭Hadoop集群的过程。
摘要由CSDN通过智能技术生成

本教程是以Ubuntu 系统作为安装讲解环境,为了减少不必要的麻烦,请您  安装Ubuntu 并能正常启动进入系统。同时也必须要 安装Java。

一、添加 Hadoop 系统用户组和用户

使用以下命令在终端中执行以下命令来先创建一个用户组:

yiibai@ubuntu:~$ sudo addgroup hadoop_

操作结果如下:

0856bc1da6dad671f7b744495098e688.png

使用以下命令来添加用户:

yiibai@ubuntu:~$ sudo adduser --ingroup hadoop_ hduser_

输入您的密码,姓名和其他详细信息。

cbc35a217eee6b4e4c0fffea62277a02.png

二、配置SSH

为了在集群管理节点,Hadoop需要SSH访问

首先,切换用户,输入以下命令:

yiibai@ubuntu:~$ su hduser_

1d69ab0d7623a2912b9e923c18e50786.png

以下这个命令将创建一个新的密钥。

hduser_@ubuntu:~$ ssh-keygen -t rsa -P ""

4f2e618934602d9af7a9221131b728b6.png

使用此密钥启用SSH访问本地计算机。

hduser_@ubuntu:~$ cat /home/hduser_/.ssd/id_rsa.pub >> /home/hduser_/.ssh/authorized_keys

57526db70195711a6a877ede202168aa.png

现在,测试SSH设置通过“hduser”用户连接到locahost。

hduser_@ubuntu:~$ ssh localhost

48cf22ed7bb88b0c148c7fe7bd929c03.png

注意:

请注意,执行  'ssh localhost' 命令后如果看到下面的错误响应,  可能 SSH 在此系统不可用。

c93789c580cef92a23121fee7a6ae032.png

来解决上面这个问题,安装 SSH 服务 -

清除 SSH 使用以下命令:

hduser_@ubuntu:~$ sudo apt-get purge openssh-server

在安装开始前清除 SSH 服务,这是一个很好的做法(建议),如果遇到“

is not in the sudoers file ...“提示,请使用有sudo 的用户来执行,

这里使用的用户是:yiibai

627d3abfa9bc58fa229c3e02380359fd.png

使用以下命令来安装SSH,使用以下命令:

yiibai@ubuntu:~$ sudo apt-get install openssh-server

a397911ebf0853f35a9c7d33533ac801.png

三、下载Hadoop

在浏览器中打开网址:http://hadoop.apache.org/releases.html

d66c1e4220fc28d1d76de2c6eae5f903.png

选择一个最新 2.7.1 的稳定版本(stable)的二进制包下载,如下:

9b543519f9b4f9ec7bf83d32ed596664.png

下载完成后,默认将文件放在 /home/yiibai/Downloads,如下图所示:

07cd9c463457e0d86f1a47b64132d21c.png

现在进入到到包含tar文件的目录,准备解压 tar.gz 文件:

yiibai@ubuntu:~$ cd /home/yiibai/Downloads

使用以下命令解压文件包:

yiibai@ubuntu:~$ sudo tar xzf hadoop-2.7.1.tar.gz

现在重命名 hadoop-2.2.0 为 hadoop

yiibai@ubuntu:~$ sudo mv hadoop-2.7.1 /usr/local/hadoop

更改文件用户属性,执行以下命令:

yiibai@ubuntu:~$ cd /usr/local

yiibai@ubuntu:~$ sudo chown -R hduser_:hadoop_ hadoop

到这里,hadoop文件的相关工作已经准备好,接下来我们还要做一些关键的设置。

四、修改  ~/.bashrc 文件

添加以下这些行到 ~/.bashrc文件的末尾,内容如下所示:

1

2

3

4

5

6

#Set HADOOP_HOME

export HADOOP_HOME=/usr/local/hadoop

#Set JAVA_HOME

export JAVA_HOME=/usr/local/jdk1.8.0_60

# Add bin/ directory of Hadoop to PATH

export PATH=$PATH:$HADOOP_HOME/bin

在终端下执行以下命令,打开编辑器并将上面的内容加入到文件的底部,如下图所示:

yiibai@ubuntu:~$ vi ~/.bashrc

3c3b57de86f1f36d72f49a39f66fc862.png

现在,使用下面的命令环境配置

yiibai@ubuntu:~$ . ~/.bashrc

五、配置关联HDFS

设置 JAVA_HOME在文件 /usr/local/hadoop/etc/hadoop/hadoop-env.sh 中,使用以下行代替,即写上完整的 Java 安装路径。如下所示:

3c388f7e8f96ca69650c07a0f83e9fd2.png

在 $HADOOP_HOME/etc/hadoop/core-site.xml 文件中还有两个参数需要设置:

1. 'hadoop.tmp.dir' - 用于指定目录让 Hadoop 来存储其数据文件。

2. 'fs.default.name' - 指定默认的文件系统

为了设置两个参数,打开文件 core-site.xml

yiibai@ubuntu:~$ sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

拷贝以下所有行的内容放入到标签 中间。

1

2

3

4

5

6

7

8

9

10

hadoop.tmp.dir

/app/hadoop/tmp

Parent directory for other temporary directories.

fs.defaultFS

hdfs://localhost:54310

The name of the default file system.

结果如下图所示:

f7ddf1f1d4c7ab65019042b75404ab6c.png

进入到目录:/usr/local/hadoop/etc/hadoop,使用如下的命令:

yiibai@ubuntu:~$ cd /usr/local/hadoop/etc/hadoop

yiibai@ubuntu:/usr/local/hadoop/etc/hadoop$

现在创建一个目录,如上面配置 core-site.xml 中使用的目录:/app/hadoop/tmp

yiibai@ubuntu:/usr/local/hadoop/etc/hadoop$ sudo mkdir -p /app/hadoop/tmp

授予权限目录 /app/hadoop/tmp,执行如下的命令:

yiibai@ubuntu:~$ sudo chown -R hduser_:hadoop_ /app/hadoop/tmp

yiibai@ubuntu:~$ sudo chmod 750 /app/hadoop/tmp

六、Map Reduce 配置

在设置这个配置之前, 我们需要设置 HADOOP_HOME 的路径,执行以下命令:

yiibai@ubuntu:~$ sudo gedit /etc/profile.d/hadoop.sh

然后输入以下一行,

export HADOOP_HOME=/usr/local/hadoop

96c4f58c13b182bd97b3613f8b56ea9c.png

再执行以下命令:

yiibai@ubuntu:~$ sudo chmod +x /etc/profile.d/hadoop.sh

退出命令行终端再次进入,并输入以下命令:echo $HADOOP_HOME 以验证 hadoop 的路径:

yiibai@ubuntu:~$ echo $HADOOP_HOME

/usr/local/hadoop

现在复制文件,执行以下命令:

yiibai@ubuntu:~$ sudo cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template $HADOOP_HOME/etc/hadoop/mapred-site.xml

使用vi 打开文件 mapred-site.xml

yiibai@ubuntu:~$ sudo vi $HADOOP_HOME/etc/hadoop/mapred-site.xml

添加以下的设置内容到标签 和 中,如下图所示:

1

2

3

4

5

6

mapreduce.jobtracker.address

localhost:54311

MapReduce job tracker runs at this host and port.

79b852b3fbd08147fff3074c05f7fb5f.png

打开 $HADOOP_HOME/etc/hadoop/hdfs-site.xml 文件如下:

yiibai@ubuntu:~$ sudo vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml

添加以下的设置内容到标签 和 中,如下图所示:

1

2

3

4

5

6

7

8

9

dfs.replication

1

Default block replication.

dfs.datanode.data.dir

/home/hduser_/hdfs

9e202e718063294fb719f369813b7642.png

创建以上配置指定的目录并授权目录给用户,使用以下命令:

yiibai@ubuntu:~$ sudo mkdir -p /home/hduser_/hdfs

yiibai@ubuntu:~$ sudo chown -R hduser_:hadoop_ /home/hduser_/hdfs

yiibai@ubuntu:~$ sudo chmod 750 /home/hduser_/hdfs

七、格式化HDFS

在第一使用 Hadoop 之前,需要先格式化 HDFS,使用下面的命令

yiibai@ubuntu:~$ $HADOOP_HOME/bin/hdfs namenode -format

执行结果如下图所示:

4a52a47c176490641b859d2bc2e2895f.png

输入:y,继往下...

注:可能会遇到一些提示错误:“java.io.IOException: Cannot create directory /app/hadoop/tmp/dfs/name/current...”,请执行以下命令来创建目录:

yiibai@ubuntu:~$ sudo mkdir -p /app/hadoop/tmp/dfs/name/current

yiibai@ubuntu:~$ sudo chmod -R a+w /app/hadoop/tmp/dfs/name/current/

八、启动 Hadoop 的单节点集群

使用以下命令启动cHadoop 的单节点集群(使用 hduser_ 用户来启动),如下:

hduser_@ubuntu:~$ $HADOOP_HOME/sbin/start-dfs.sh

上面的命令输出结果如下所示:

26a30b18b9704cf1f9b3e659b74cfa6a.png

接下来再执行命令:

hduser_@ubuntu:~$ $HADOOP_HOME/sbin/start-yarn.sh

f6bf57b418b4be3c1c27eed745cea925.png

现在使用 'jps' 工具/命令, 验证是否所有 Hadoop 相关的进程正在运行。

hduser_@ubuntu:~$ /usr/local/jdk1.8.0_60/bin/jps

如果 Hadoop 成功启动,那么 jps 输出应显示: NameNode, NodeManager, ResourceManager, SecondaryNameNode, DataNode.

九、停止/关闭 Hadoop

hduser_@ubuntu:~$ $HADOOP_HOME/sbin/stop-dfs.sh

1bf64744f387d3e88bf7eda573c09ed8.png

hduser_@ubuntu:~$ $HADOOP_HOME/sbin/stop-yarn.sh

0856defba5d83f78bf8586f1730c10c2.png

the end.

¥ 我要打赏

纠错/补充

收藏

加QQ群啦,易百教程官方技术学习群

注意:建议每个人选自己的技术方向加群,同一个QQ最多限加 3 个群。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值