2023年陕西省高等职业院校技能大赛“大数据应用开发“赛项之平台搭建

本文详细介绍了2023年陕西省高等职业院校技能大赛‘大数据应用开发’赛项的平台搭建过程,涵盖了Hadoop完全分布式安装配置,HBase分布式部署以及ClickHouse单机部署的每一步操作,包括JDK和相关软件的安装、配置、分发、启动等,旨在为参赛者提供参考。
摘要由CSDN通过智能技术生成

此文章为2023年陕西省高等职业院校技能大赛"大数据应用开发"赛项赛题的平台搭建任务的所有操作步骤,不包含截图。如有错误的地方请帮忙指出,所有内容仅供参考,希望能帮助到你

任务一:Hadoop 完全分布式安装配置

1、将容器 Master 节点 JDK 安装包解压并移动到/opt/module 路径中(若路径不存在,则需新建),将命令复制并粘贴至客户端桌面【Release\模块 A 提交结果.docx】中对应的任务序号下;

tar -zxvf /opt/software/jdk-8u212-linux-x64.tar.gz -C /opt/module

2、修改/etc/profile 文件,设置 JDK 环境变量,配置完毕后在 master 节点分别执行“java -version”和“javac”命令,将命令行执行结果分别截图并粘贴至客户端桌面【Release\模块 A 提交结果.docx】中对应的任务序号下;

vim /etc/profile
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

3、 请完成 host 相关配置,将三个节点分别命名为 master、slave1、slave2,并做免密登录,用 scp 命令并使用绝对路径从 master 复制 JDK 解压后的安装文件到 slave1、slave2 节点(若路径不存在,则需新建),并配置 slave1、slave2 相关环境变量,将全部复制命令复制并粘贴至客户端桌面【Release\模块 A 提交结果.docx】中对应的任务序号下;

三台节点分别命名(比赛时节点已完成命名):

hostnamectl set-hostname mater
hostnamectl set-hostname slave1
hostnamectl set-hostname slave2

更改hosts文件:

masterip	master
slave1ip	slave1
slave2ip	slave2

配置免密登录(三台节点):

cd .ssh/
​ssh-keygen
​ssh-copy-id master
​ssh-copy-id slave1
​ssh-copy-id slave2

scp 命令并使用绝对路径从 master 复制 JDK 解压后的安
装文件和环境变量文件到 slave1、slave2 节点

scp -r /opt/module/jdk1.8.0_212/ root@slave1:/opt/module/
scp -r /opt/module/jdk1.8.0_212/ root@slave2:/opt/module/
scp -r /etc/profile root@slave1:/etc
scp -r /etc/profile root@slave1:/etc

4、 在容器 Master 将 Hadoop 解压到/opt/module(若路径不存在,则需新建)目录下,并将解压包分发至 slave1、slave2 中,其中 master、slave1、slave2节点均作为 datanode,配置好相关环境,初始化 Hadoop 环境 namenode,将初始化命令及初始化结果截图(截取初始化结果结束倒数 20 行即可)复制粘贴至客户端桌面【Release\模块 A 提交结果.docx】中对应的任务序号下;

将hadoop解压到/opt/module

tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module

并将解压包分发至slave1、slave2中(为提高效率可以先不分发,配置完毕后再分发)

scp -r /opt/module/hadoop-3.1.3/ root@bigdata2:/opt/module/
scp -r /opt/module/hadoop-3.1.3/ root@bigdata3:/opt/module/

配置hadoop环境变量(配置完成source /etc/profile):

export HADOOP_HOME=/opt/ module/ hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HDFS_NAMENODE_USER=root
​export HDFS_DATANODE_USER=root
​export HDFS_SECONDARYNAMENODE_USER=root
​export YARN_RESOURCEMANAGER_USER=root
​export YARN_NODEMANAGER_USER=root

进入需要修改hadoop配置文件的目录:

cd $HADOOP_HOME/etc/hadoop

vim hadoop-env.sh

export JAVA_HOME=/opt/module/jdk1.8.0_212

vim core-site.xml

<property> 
	<name>fs.defaultFS</name> 
	<value>hdfs://master:8020</value> 
</property> 
<property> 
	<name>hadoop.tmp.dir</name> 
	<value
  • 15
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值