四、Linux环境下JDK安装、Hadoop,阿里P8架构师的Linux运维大厂面试题总结

本文详述了在Linux环境下安装JDK和部署Hadoop集群的步骤,包括解压安装文件、配置环境变量、集群配置、测试及Zookeeper的初步部署。适合Linux运维工程师学习参考。
摘要由CSDN通过智能技术生成
source /etc/profile
7.查看是否安装配置成功,查看java版本:
java -version

(二)Hadoop集群部署

前提:已利用Xftp工具将压缩包传至虚拟机的/opt/中。

(先在Server01的XShell界面上进行安装Hadooop环境,Hadoop集群配置,将这些操作步骤完成后,通过已经配置好的ssh免密,使Server02和Server03快速地完成Hadoop集群部署)

##安装Hadooop环境

(当前在Server01的XShell界面)

1.解压文件

tar -zxvf hadoop版本.tar.gz

2.编辑系统环境变量配置文件
vi /etc/profile
export HADOOP_HOME=/opt/hadoop-3.1.3
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH

3.生效环境变量

需要在所有服务器执行

source /etc/profile
4.查看是否安装配置成功,查看Hadoop版本
hadoop version

##Hadoop集群配置

(当前在Server01的XShell界面)

1. 配置Hadoop集群主节点

① 进入Hadoop配置文件文档

cd /opt/hadoop-3.1.3/etc/hadoop/

② 修改hadoop-env.sh文件

vi hadoop-env.sh

随便找一个前面没有#的地方,按i,黏贴下面内容:

export JAVA_HOME=/opt/jdk1.8.0_311

esc键,冒号加wq退出

③ 修改core-site.xml文件

vi core-site.xml

按i进入编辑模式粘贴下面代码:

<!-- 用于设置Hadoop的文件系统,由URI指定 -->
<configuration>
<!-- 用于设置Hadoop的文件系统,由URI指定 -->
<property>
<!-- 用于指定namenode地址在主节点机器上 -->
<name>fs.defaultFS</name>
<value>hdfs://Server01:9000</value>
</property>
<!-- 配置Hadoop的临时目录,默认/tmp/hadoop-${user.name} -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-3.1.3/tmp</value>
</property>
</configuration>

  • 24
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值