安装单机Hadoop系统
一、所用软件版本
虚拟机:VMware_workstation_full_12.5.2
操作系统:ubuntu-16.04.2-desktop-amd64
HADOOP:hadoop-2.7.3.tar
JDK: jdk-8u121-linux-x64.tar
二、JDK的配置
1.将/home/software/jdk-8u121-linux-x64.tar进行解压
![](https://i-blog.csdnimg.cn/blog_migrate/1ecd0ca2e99ad4af453b041c3b74f765.png)
2.将解压后的jdk1.8.0_121移动到/usr/local/java文件目录下
![](https://i-blog.csdnimg.cn/blog_migrate/dc7ac24be396f895e0f797cac637bda5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1c3ca798834aea862c8feef102b9dfc0.png)
3.输入命令:sudo gedit/etc/profile配置java环境变量如下:
4.使环境变量生效并验证java环境变量是否配置成功
![](https://i-blog.csdnimg.cn/blog_migrate/687cabb6935dcedf5a31dee0fbb6a5c0.png)
三、SSH的配置
1.安装SSH
![](https://i-blog.csdnimg.cn/blog_migrate/8dbb07df9cd80c0a915ecb36d08c4fd3.png)
2.安装成功后,尝试登陆本机,命令:ssh localhost
![](https://i-blog.csdnimg.cn/blog_migrate/f61a0dcebcf6787ea566c866bf973782.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6a47893288a374dab5d53d26f9542d49.png)
3.设置ssh免密登陆,命令:ssh-keygen
四、创建hadoop用户
1.创建hadoop用户:hadoop
![](https://i-blog.csdnimg.cn/blog_migrate/8e032097fb6f1e2f3de8b413917a2f8d.png)
2.使用hadoop登陆系统
五、Hadoop的安装
1.并将解压后的hadoop-2.7.3从下载中移至/usr/local/hadoop文件目录下并授予权限
2.同java一样,命令:sudo gedit /etc/profile配置环境变量后,查看hadoop是否安装配置成功,如下:
六、hadoop伪分布式配置
1.用下面命令修改配置文件core-site.xml如下图:
![](https://i-blog.csdnimg.cn/blog_migrate/7617f6cc9e7d4f0f61d1533836d8d4d0.png)
2. 用下面命令修改配置文件 hdfs-site.xml如下图:
![](https://i-blog.csdnimg.cn/blog_migrate/136e6c08c4ffafbbf61d6789132bccc8.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f427b03355cdbdd8a5fec04164bf11e4.png)
3. 用下面命令修改配置文件mapred-site.xml如下图:
![](https://i-blog.csdnimg.cn/blog_migrate/46cbe3ed12c432aea7191995cf1faab5.png)
4. 用下面命令修改配置文件 yarn-site.xml如下图:
![](https://i-blog.csdnimg.cn/blog_migrate/de28e4f8a459da032a4fb1990cf688e2.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6bdeab0f8871388710cd93e14347d048.png)
5. namenode格式化如下图所示,Exiting withstatus 0表示格式化成功
![](https://i-blog.csdnimg.cn/blog_migrate/ba82c018fe9b6e7a48d82035a2559b79.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6befc9e928bba64ff02d5f0c31fabecf.png)
6. 启动进程,命令:./sbin/start-dfs.sh,第一次启动出现如下问题:
解决问题再次启动如下图,并用jps验证如下图:
7. 在网页查看 namenode 和 datanode 信息
七、WordCount实验
1.实验test.txt在/home/usr/lacal/hadoo文件目录下,实验具体步骤及结果如下:
![](https://i-blog.csdnimg.cn/blog_migrate/6b41e2b0376af298eefb19218fe9a6cd.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d7b1a925c59aec9af89776f203ef9800.png)
![](https://i-blog.csdnimg.cn/blog_migrate/21fca9ffe1c96b684bdcf35dea866a19.png)
![](https://i-blog.csdnimg.cn/blog_migrate/e0bdc914a6edac8b3455d9c40feec0ae.png)
就这样环境搭好了,还跑了统计词频的小实验,需要细心、细心、再细心,再加点耐心,大功告成!