第一步:下载hadoop压缩包
压缩包百度网盘链接:链接:https://pan.baidu.com/s/1KBci0NbW5u4LAXNHcpSl8Q? pwd=89eg
提取码:89eg
1、在根目录下的OPT创建software文件夹,software有两个文件夹:1、software 2、modules
(以我的电脑为例:opt下的software文件夹中中有software和modules两个文件)
备注:因为后续需要jdk地址,前提是jdk必须安装成功,若看到压缩包报红,需要修改权限(chmod)。
第二步:利用XFTP6将hadoop压缩包传到linux系统所指定的文件下(OPT/software/modules)
- 切换到root用户;
- 解压缩
[root@localhost software]# tar -zxvf ./hadoop-2.5.0-cdh5.3.6.tar.gz -C ../software
解压到OPT/software/software
- 进入到hadoop-2.5.0-cdh5.3.6 接下来是认识hadoop-2.5.0-cdh5.3.6
1、输入命令: cd hadoop-2.5.0-cdh5.3.6 ll可以看到以下文件名
2、查看配置文件
cd etc ---> cd hadoop
3、查看启动文件夹
cd sbin
所有关于启动和关闭的命令都在这里(如下图)
第三步:修改配置文件
- 进入到配置文件当中(上面有操作)
- 打开Notepad++ 进入etc/hadoop/slaves
----(Ctrl+s保存)---->
将“localhost”改为主机IP地址。
2.修改三个xxxx-site.xml
备注:以上修改的内容笔记的资料链接:https://note.youdao.com/s/99iF8tTl
One---------------------------------------------------------------------------------------------
-------->
在hadoop2.5.0-cdh5.3.6 创建文件夹tmp
把获得的tmp地址放到(如下图)
Two-----------------------------------------------------------------------------------------------
------->
Three--------------------------------------------------------------------------------------------------
------->
3.修改三个xxx-env.sh文件
前提:先找到jdk路径 命令为:echo $JAVA_HOME
复制jdk路径
One(hadoop-env.sh)---------------------------------------------------------------------------------
------->
Two(yarn-env.sh)--------------------------------------------------------------------------------------
--------->
Three(mapred-env.sh)----------------------------------------------------------------------------------
---------->
第四步:格式化hdfs
- 输出命令: bin/hdfs namenode -format
判断是否成功(如下图):
出现这四个单词,说明格式化成功!!!!
第五步:启动文件系统
1.命令:sbin/start-dfs.sh
第六步:验证是否成功启动文件系统
1.命令:jps
hdfs文件夹下有 namenode 命名空间
datanode 数据节点
如图:若出现namenode和datanode则启动成功!!!!
第七步:hdfs提供了个web
在浏览器输入之后:
点击Utilities中的Browse the file system 输出/可查看根目录
第八步:关闭文件系统
- 命令:sbin/stop-dfs.sh
- 等待完成之后,输出命令:jsp
- 若没有出现namenode和datanode则关闭成功。