以下是安装Hadoop 3.2的步骤:
1. 下载 Hadoop 安装包
首先需要下载Hadoop官方网站提供的源代码。你可以上https://hadoop.apache.org/releases.html#Download 下载对应版本。解压到一个目录下。
2. 配置环境变量
在安装Hadoop前,需要配置Java和Hadoop环境变量。打开终端并编辑`.bashrc`文件:
```
$ nano ~/.bashrc
```
在文件末尾添加以下内容:
```
export JAVA_HOME=/path/to/java
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/path/to/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
```
使修改生效:
```
$ source ~/.bashrc
```
3. 配置Hadoop
在 Hadoop 目录下找到 /etc/hadoop 目录,在该目录下有多个xml配置文件,如 core-site.xml、hdfs-site.xml、mapred-site.xml 和 yarn-site.xml 等。
以下是一些必须要配置的属性:
#### core-site.xml
```xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://{namenode-hostname}:9000</value>
</property>
```
#### hdfs-site.xml
```xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/path/to/name/dir</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/path/to/data/dir</value>
</property>
```
#### mapred-site.xml
```xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
```
#### yarn-site.xml
```xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>{resourcemanager-hostname}</value>
</property>
```
4. 格式化HDFS
在启动HDFS之前,需要格式化NameNode。这个操作只需执行一次。
```
$ hdfs namenode -format
```
5. 启动集群
```sh
$ start-dfs.sh
$ start-yarn.sh
```
完成后可以通过访问 `http://{namenode-hostname}:9870/` 来查看Hadoop NameNode信息界面。
6. 测试Hadoop
拷贝输入文件到HDFS上。
```sh
$ hdfs dfs -mkdir /input
$ hdfs dfs -put /path/to/input/file /input/
```
运行MapReduce作业。
```sh
$ hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar wordcount /input /output
```
拷贝输出文件到本地。
```sh
$ hdfs dfs -get /output/* /path/to/output/dir
```
你可以查看输出文件的内容来确认计算是否成功。
以上就是在Ubuntu系统上安装Hadoop的简单步骤。