1.创建hadoop用户
$ sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shell
$ sudo passwd hadoop #为hadoop用户设置密码,之后需要连续输入两次密码
$ sudo adduser hadoop sudo #为hadoop用户增加管理员权限
$ su - hadoop #切换当前用户为用户hadoop
$ sudo apt-get update #更新hadoop用户的apt,方便后面的安装

2.安装hadoop
先下载hadoop-2.10.1.tar.gz,链接如下:
http://mirrors.hust.edu.cn/apache/hadoop/common/
sudo tar -zxf hadoop-3.0.3.tar.gz -C /usr/local # 解压到/usr/local中
cd /usr/local # 定位到/usr/local
sudo mv ./hadoop-3.0.3/ ./hadoop # 将文件夹名改为hadoop
sudo chown -R huyn ./hadoop # 修改文件权限
验证是否安装成功
cd /usr/local/hadoop
./bin/hadoop version
安装成功会显示版本

3.修改配置文件
sudo gedit ./etc/hadoop/core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

sudo gedit ./etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
<property>
<name>dfs.http.address</name>
<value>localhost:50070</value>
</property>
</configuration>

修改java环境变量(你安装的位置)
sudo gedit ./etc/hadoop/hadoop-env.sh

4.执行 NameNode 的格式化:
sudo ./bin/hdfs namenode -format

5.开启 NameNode 和 DataNode 守护进程
sudo ./sbin/start-dfs.sh

启动完成后,可以通过命令 jps 来判断是否成功启动

本文详细介绍了如何在Ubuntu系统中安装Hadoop,包括创建Hadoop用户、下载并安装hadoop-2.10.1、验证安装成功、修改配置文件以及启动NameNode和DataNode等步骤,为后续Spark环境的搭建奠定基础。
334

被折叠的 条评论
为什么被折叠?



