CentOS6 Hadoop安装与配置

Hadoop安装与配置需要用到的软件和工具:
1.secureCRT(用来远程操作Linux)
2.notepad++(用来远程操控Linux的文件)
3.火狐浏览器(用来验证Linux是否能访问Hadoop)
4.Hadoop压缩包
准备好这些工具和软件后,下面让我们进行安装吧!

第一步:打开secureCRT并使其与我们的Linux系统连接上。目的是为了进行远程操作,使我们配置更加便捷。如下图即为连接成功:
在这里插入图片描述

在这里插入图片描述
第二步:在上传压缩包之前我们需要先建立两个文件夹(一个用来装压缩包,一个用来装解压后的文件),然后进入到software文件夹下使用命令:rz -Z 上传hadoop压缩包
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
第三步:解压Hadoop压缩包,使用命令:tar -zxvf hadoop-3.1.4.tar.gz -C /opt/module(#前面已创好得用来装解压后的文件的文件夹路径)
在这里插入图片描述
如下图即为解压完成:
在这里插入图片描述
第四步:配置文件,使用命令:vim /etc/profile
在这里插入图片描述
打开文件进入编辑状态后,在文件最后添加以下内容:
export HADOOP_HOME=/opt/module/hadoop-3.1.4(#解压过后的Hadoop文件的路径,可以通过克隆会话查看,操作见下图)
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
在这里插入图片描述

在这里插入图片描述
到此呢,我们的文件配置完成,最后我们要保存并退出。按下 'esc’键 :wq 并回车。

第五步:我们要使文件生效,使用命令:source /etc/profile
在这里插入图片描述
第六步:这一步我们要打开里一个软件notepad++,按照以下步骤与我们的虚拟机连上
打开进入notepad++ ~点击插件找到nppftp(若没有需先下载,在插件管理搜索nppftp并安装) ~接着点击nppftp中的show nppftp Window ~然后在右边弹出的界面中找到设置并点击出现如下界面
在这里插入图片描述
按照要求填完后点击关闭,接着点击第一个蓝色的小图标连接。出现如下界面:
在这里插入图片描述
第六步:我们要在根目录下找到以下五个文件并打开。
在这里插入图片描述
然后我们分别配置这五个文件:
1.core-site.xml文件 添加以下内容:

hadoop.tmp.dir /opt/hadoop/hadoop3/tmp#修改此路径,需创建一个文件夹来保存缓存的数据据。具体操作见下图 fs.defaultFS hdfs://venn05:8020#venn05改为你的ip ![在这里插入图片描述](https://img-blog.csdnimg.cn/20201114112253519.png#pic_center)

在这里插入图片描述
如下图修改完后一定要记得保存!
在这里插入图片描述
2.hadoop-env.sh文件
按下图修改即可:
在这里插入图片描述
3.hdfs-site.xml文件

<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>

在这里插入图片描述

4.mapred-site.xml文件

mapreduce.framework.name yarn ![在这里插入图片描述](https://img-blog.csdnimg.cn/20201114112456393.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzQ5MDgxOTgz,size_16,color_FFFFFF,t_70#pic_center)

5.yarn-site.xml文件

yarn.resourcemanager.hostname venn05 #venn05改为你自己的主机名(***但是一定要能在cmd中ping到你的主机名***) yarn.nodemanager.aux-services mapreduce_shuffle ![在这里插入图片描述](https://img-blog.csdnimg.cn/20201114112710103.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzQ5MDgxOTgz,size_16,color_FFFFFF,t_70#pic_center)

第七步:接着我们格式化一下hadoop,使用该命令:hdfs namenode -format
在这里插入图片描述
如下图即为格式化成功:
在这里插入图片描述
第八步:我们启动一下五个文件
在这里插入图片描述
第九步:使用命令:jps 查看一下Hadoop是否启动成功
在这里插入图片描述
很明显,我们的Hadoop已经启动成功啦!
最后一步:我们来验证一下我们的Linux是否能访问Hadoop界面 。但是在这之前我们要先把Linux的防火墙关闭,否则是进不去的哦!

在这里插入图片描述
好啦,现在我们已经看到了胜利的曙光。但是我们还差一小步
打开火狐浏览器在地址栏输入:http://ip:9879
在这里插入图片描述
咻!出来啦
在这里插入图片描述
到这,我们算是大功告成啦!

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值