Linux安装配置hadoop

9 篇文章 0 订阅
1 篇文章 0 订阅

安装配置hadoop

1.到 《官网》 下载Hadoop

2.使用cd /usr命令,进入到usr目录下
进入并查看usr目录
并使用mkdir hadoop命令,创建一个hadoop目录,使用ls查看是否创建成功(一般没毒的话,应该都会创建成功)
创建并查看hadoop目录
4.将下载好的文件上传到linux环境中,准确说是上一步建好的hadoop目录下,方法有三:
(1)可以使用XShell的sudo rz的命令上传,但是有的可能会出现“传输失败”,如果失败了可以换换使用sudo rz -be进行上传
(2)使用XShell配套的xftp进行上传,xftp需 额外下载
(3)直接使用MobaXterm,自带上传,无需额外下载其他软件
创建并查看hadoop目录
上传hadoop文件夹
上传进行中
4.上传完成后,使用ls命令,查看上传是否成功
查看上传是否成功
5.执行sudo tar -zxvf hadoop-3.2.1.tar.gz命令,将tar包解压到当前文件夹中
解压到当前文件夹
使用ls命令,查看解压后的文件夹
查看解压后的文件夹
6.执行vi /etc/profile(因为是使用的root用户,所以没加sudo),准备修改/etc/profile配置文件,打开文件到最后一行(可以使用“shift键 + G”直接到最后一行)
进入profile文件
修改前截图为:
修改前
追加如下配置,截图如下(如果使用的是MobaXterm可以使用“shift键 + insert键”进行粘贴,XShell好像也可以):

# Hadoop Environment
export HADOOP_HOME="/usr/hadoop/hadoop-3.2.1"
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

追加后截图为:
追加后截图
按esc(视频退出全屏➹),输入:wq保存并退出
7.执行source /etc/profile命令,使配置生效
使配置生效
8.使用hadoop version命令,查看hadoop 版本号,顺带检验hadoop 是否安装成功,安装成功,截图如下:
查看安装是否成功
9.执行cd /usr/hadoop/hadoop-3.2.1/etc/hadoop/进入hadoop目录,并使用ls查看配置文件,截图如下:
hadoop目录内容
10.执行sudo vi hadoop-env.sh命令,添加配置运行环境变量
添加运行环境变量
增加如下配置:

export JAVA_HOME=/usr/java/jdk1.8.0_111
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

按esc(视频退出全屏➹),输入:wq保存并退出
追加配置
11.执行sudo vi core-site.xml命令,修改core-site.xml文件,在configuration中添加如下配置
在这里插入图片描述
增加如下配置:

		<property>
              <name>fs.defaultFS</name>
              <value>hdfs://master:9820</value>
        </property>

        <property>
              <name>hadoop.tmp.dir</name>
              <value>/usr/hadoop/hadoopdata</value>
        </property>

按esc(视频退出全屏➹),输入:wq保存并退出
增加配置
12.执行sudo vi hdfs-site.xml命令,修改hdfs-site.xml配置文件
在这里插入图片描述
添加如下配置:

	<property>
              <name>dfs.replication</name>
              <value>1</value>
    </property>

截图如下:
添加配置
按esc(视频退出全屏➹),输入:wq保存并退出
13.执行sudo vi mapred-site.xml命令,修改mapred-site.xml配置文件
在这里插入图片描述
添加如下配置:

		<property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
        </property>

截图如下:
添加配置
按esc(视频退出全屏➹),输入:wq保存并退出
14.执行sudo vi yarn-site.xml命令,修改yarn-site.xml配置文件
在这里插入图片描述
添加如下配置:

<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CL
ASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>

截图如下:
添加配置
按esc(视频退出全屏➹),输入:wq保存并退出

15.执行sudo chmod -R 777 /usr/hadoop命令,将/usr/hadoop目录赋予777权限,否则后面格式化HDFS会报错
加权
执行cd /usr/hadoop/hadoop-3.2.1命令,进入hadoop-3.2.1目录下
进入hadoop-3.2.1目录下
执行bin/hdfs namenode -format命令,格式化HDFS文件系统

注意:只需要格式化一次即可,如果多次格式化到后面可能会出现问题,到那时删除/usr/hadoop/hadoopdata目录后再重新格式化

格式化hdfs文件系统

16.执行sbin/start-all.sh命令,启动hadoop所有进程,截图如下:
启动所有进程
启动完成后,执行jps命令(以后经常用),查看已经启动的进程:
查看已经启动的进程
在window浏览器中输入:http://192.168.52.200:8088/cluster(虚拟机ip地址)即可查看ResourceManager界面
查看ResourceManager界面
输入http://192.168.52.200:9870/,查看namenode
查看namenode
输入http://192.168.52.200:9864,查看datanode
查看datanode

注:执行“stop-all.sh”停止hadoop,以后启动、停止hadoop因为加入到环境变量中,所以不用在进入固定文件夹中启动了。

如果是虚拟机,记得做做快照(至于啥时候做快照,每个重要时间节点做一下就行,至于什么是重要时间姐姐,就看自己了(๑→ܫ←))
做快照

  • 6
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值