Hadoop集群搭建系列教程(五)—— JDK和Hadoop安装

 个人博客SkyAsh的小窝

JDK

卸载原装JDK

此前的文章已经介绍了如何卸载原装的JDK

这里再写一遍

rpm -qa | grep -i java

image

JDK和hadoop不匹配的话是直接没法用的,所以要装配套的

如果是最小化的cdntos的话,是压根不带JDK的,也就不用这一步了

rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps
  • rpm -qa:查询所安装的所有 rpm 软件包
  • grep -i:忽略大小写
  • xargs -n1:表示每次只传递一个参数
  • rpm -e –nodeps:强制卸载软件

再检验一下确实没有了

rpm -qa | grep -i java

image

JDK安装

软件包下载

百度云下载:
链接:百度网盘 请输入提取码
提取码:cbw4

安装过程

上传JDK到software目录

image

解压到module目录下

tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

image

配置JDK环境变量

sudo vim /etc/profile.d/my_env.sh

加入以下内容

#JAVA_HOME 
export JAVA_HOME=/opt/module/jdk1.8.0_212 
export PATH=$PATH:$JAVA_HOME/bin 

image

生效环境变量

source /etc/profile

image

测试安装是否成功

java

java -version
JDK安装成功

image

Hadoop

软件包下载传送门

软件包安装

导入

把软件包导入到software目录下

image

解压

tar -zxvf hadoop-3.3.1.tar.gz -C /opt/module/

image

添加hadoop环境变量

sudo vim /etc/profile.d/my_env.sh

把下面的内容添加进去

#HADOOP_HOME 
export HADOOP_HOME=/opt/module/hadoop-3.3.1
export PATH=$PATH:$HADOOP_HOME/bin 
export PATH=$PATH:$HADOOP_HOME/sbin 

image

生效hadoop环境变量

source /etc/profile

image

验证是否安装成功

hadoop

hadoop version 

安装成功

image

重启

reboot

sudo reboot

image

Hadoop目录结构

image

重要目录

  • bin 目录:存放对 Hadoop 相关服务(hdfs,yarn,mapred)进行操作的脚本
  • etc 目录:Hadoop 的配置文件目录,存放 Hadoop 的配置文件
  • lib 目录:存放 Hadoop 的本地库(对数据进行压缩解压缩功能)
  • sbin 目录:存放启动或停止 Hadoop 相关服务的脚本
  • share 目录:存放 Hadoop 的依赖 jar 包、文档、和官方案例
  • 18
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值