Windows PC上创建大数据职业技能竞赛实验环境之三--Spark、Hive、Flume、Kafka和Flink环境的搭建

本文详细介绍了如何在Windows上的Linux子系统(WLS)中,基于hadoop-base容器,搭建Spark、Hive、Zookeeper、Flume、Kafka和Flink的实验环境。包括安装软件包、配置环境变量、修改配置文件(如Spark的slaves和spark-env.sh,Hive的hive-site.xml,Zookeeper的zoo.cfg,Flume的flume-env.sh,Kafka的server.properties和Flink的flink-conf.yaml)以及MySQL的配置,以连接Hive数据库。整个过程涉及集群配置、端口映射和资源调度设置。
摘要由CSDN通过智能技术生成

在前述hadoop-base基础容器环境的基础上,实现Spark、Hive、Flume、kafka和Flink实验环境的搭建。我们已将前述的hadoop-base基础容器进行可阶段的保存:

sudo docker commit "hadoop base v3" hadoop-base centos/hadoop-base:v3

现在,如果已经将前述作业的hadoop-base容器停用并删除,用保存的centos/hadoop-base:v3镜像重新开启hadoop-base容器。加入共享目录,暴露ssh端口,我们将原22端口映射为22222。

sudo docker run -it --name hadoop-base -v /home/wslu/data:/root/data -p 22222:22 centos/hadoop-base:v3 /bin/bash

1 安装Spark、Hive、Zookeeper、Flume、Kafka和Flink软件包

方法类似,即解压软件包,移动到/root/hadoop目录下,配置环境变量。

Spark

[root@f9ea223c4f75 data]# ls
apache-echarts-5.1.0-src.zip   flink-1.10.2-bin-scala_2.11.tgz             redis-4.0.1.tar.gz
apache-echarts-5.1.2-src.zip   hadoop-2.7.7.tar.gz                         scala-2.11.12.tgz
apache-flume-1.7.0-src.tar.gz  kafka_2.11-2.0.0.tgz                        spark-2.1.1-bin-hadoop2.7.tgz
apache-hive-2.3.4-bin.tar.gz   mysql-5.7.36-linux-glibc2.12-x86_64.tar.gz  vue.global.js

[root@f9ea223c4f75 data]# tar xzvf spark-2.1.1-bin-hadoop2.7.tgz

[root@f9ea223c4f75 data]# mv spark-2.1.1-bin-hadoop2.7 /root/hadoop/spark-2.1.1-bin-hadoop2.7
[root@f9ea223c4f75 ~]# ls /root/hadoop/spark-2.1.1-bin-hadoop2.7
bin  conf  data  examples  jars  LICENSE  licenses  NOTICE  python  R  README.md  RELEASE  sbin  yarn

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# vi .bashrc
JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_648
CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
HADOOP_HOME=/root/hadoop/hadoop-2.7.7
PATH=$PATH:$HADOOP_HOME/bin
SPARK_HOME=/root/hadoop/spark-2.1.1-bin-hadoop2.7
PATH=$PATH:$SPARK_HOME/bin

export JAVA_HOME JRE_HOME CLASSPATH PATH
export HADOOP_HOME SPARK_HOME

 Hive

[root@f9ea223c4f75 ~]# cd data
[root@f9ea223c4f75 data]# tar zxvf apache-hive-2.3.4-bin.tar.gz

[root@f9ea223c4f75 data]# mv apache-hive-2.3.4-bin /root/hadoop/apache-hive-2.3.4-bin

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# ls hadoop/apache-hive-2.3.4-bin
bin  binary-package-licenses  conf  examples  hcatalog  jdbc  lib  LICENSE  NOTICE  RELEASE_NOTES.txt  scripts
[root@f9ea223c4f75 ~]#

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# vi .bashrc
JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_648
CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
HADOOP_HOME=/root/hadoop/hadoop-2.7.7
PATH=$PATH:$HADOOP_HOME/bin
SPARK_HOME=/root/hadoop/spark-2.1.1-bin-hadoop2.7
PATH=$PATH:$SPARK_HOME/bin
HIVE_HOME=/root/hadoop/apache-hive-2.3.4-bin
PATH=$PATH:$HIVE_HOME/bin

export JAVA_HOME JRE_HOME CLASSPATH PATH
export HADOOP_HOME SPARK_HOME HIVE_HOME

Zookeeper 

[root@f9ea223c4f75 ~]# cd data
[root@f9ea223c4f75 data]# tar zxvf apache-zookeeper-3.6.3-bin.tar.gz

[root@f9ea223c4f75 data]# mv apache-zookeeper-3.6.3-bin /root/hadoop/apache-zookeeper-3.6.3-bin

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# ls hadoop/apache-zookeeper-3.6.3-bin
bin  conf  docs  lib  LICENSE.txt  NOTICE.txt  README.md  README_packaging.md
[root@f9ea223c4f75 ~]#

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# vi .bashrc
JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_648
CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
HADOOP_HOME=/root/hadoop/hadoop-2.7.7
PATH=$PATH:$HADOOP_HOME/bin
SPARK_HOME=/root/hadoop/spark-2.1.1-bin-hadoop2.7
PATH=$PATH:$SPARK_HOME/bin
HIVE_HOME=/root/hadoop/apache-hive-2.3.4-bin
PATH=$PATH:$HIVE_HOME/bin
ZOOKEEPER_HOME=/root/hadoop/apache-zookeeper-2.6.3-bin
PATH=$PATH:$ZOOKEEPER_HOME/bin

export JAVA_HOME JRE_HOME CLASSPATH PATH
export HADOOP_HOME SPARK_HOME HIVE_HOME ZOOKEEPER_HOME

Flume

[root@f9ea223c4f75 ~]# cd data
[root@f9ea223c4f75 data]# tar zxvf apache-flume-1.7.0-bin.tar.gz

[root@f9ea223c4f75 data]# mv apache-flume-1.7.0-bin /root/hadoop/apache-flume-1.7.0-bin

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# ls hadoop/apache-flume-1.7.0-bin
bin  CHANGELOG  conf  DEVNOTES  doap_Flume.rdf  docs  lib  LICENSE  NOTICE  README.md  RELEASE-NOTES  tools
[root@f9ea223c4f75 ~]#

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# vi .bashrc
JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_648
CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
HADOOP_HOME=/root/hadoop/hadoop-2.7.7
PATH=$PATH:$HADOOP_HOME/bin
SPARK_HOME=/root/hadoop/spark-2.1.1-bin-hadoop2.7
PATH=$PATH:$SPARK_HOME/bin
HIVE_HOME=/root/hadoop/apache-hive-2.3.4-bin
PATH=$PATH:$HIVE_HOME/bin
FLUME_HOME=/root/hadoop/apache-flume-1.7.0-bin
FLUME_CONF_DIR=$FLUME_HOME/conf
PATH=$PATH:$FLUME_HOME/bin
ZOOKEEPER_HOME=/root/hadoop/apache-zookeeper-2.6.3-bin
PATH=$PATH:$ZOOKEEPER_HOME/bin

export JAVA_HOME JRE_HOME CLASSPATH PATH
export HADOOP_HOME SPARK_HOME HIVE_HOME ZOOKEEPER_HOME
export FLUME_HOME FLUME_CONF_DIR

Kafka

[root@f9ea223c4f75 ~]# cd data
[root@f9ea223c4f75 data]# tar zxvf kafka_2.11-2.0.0.tgz

[root@f9ea223c4f75 data]# mv apache-zookeeper-3.6.3-bin /root/hadoop/kafka_2.11-2.0.0

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# ls hadoop/kafka_2.11-2.0.0
bin  config  libs  LICENSE  NOTICE  site-docs
[root@f9ea223c4f75 ~]#

[root@f9ea223c4f75 ~]# cd
[root@f9ea223c4f75 ~]# vi .bashrc
JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_648
CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
HADOOP_HOME=/root/hadoop/hadoop-2.7.7
PATH=$PATH:$HADOOP_HOME/bin
SPARK_HOME=/root/hadoop/spark-2.1.1-bin-hadoop2.7
PATH=$PATH:$SPARK_HOME/bin
HIVE_HOME=/root/hadoop/apache-hive-2.3.4-bin
PATH=$PATH:$HIVE_HOME/bin
FLUME_HOME=/root/hadoop/apache-flume-1.7.0-bin
FLUME_CONF_DIR=$FLUME_HOME/conf
PATH=$PATH:$FLUME_HOME/bin
ZOOKEEPER_HOME=/root/hadoop/apache-zookeeper-2.6.3-bin
PATH=$PATH:$ZOOKEEPER_HOME/bin
KAFKA_HOME=/root/hadoop/kafka_2.11-
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算框架,可用于处理大数据集并提供高可靠性,高可用性和高性能。要进行详细的安装部署,需要运行以下步骤: 1. 安装Java:Hadoop基于Java编写,因此需要安装适当的Java版本。 2. 安装Hadoop:以二进制文件的形式下载Hadoop,并将其解压缩到目标位置。编辑Hadoop配置文件,并设置必要的参数,例如本地文件系统和Hadoop所依赖的其他组件。 3. 部署HDFS:使用bin/hdfs script启动HDFS守护进程并格式化NameNode。配置HDFS,并在数据节点上创建数据目录。 4. 部署YARN:使用bin/yarn script启动YARN守护进程,并在ResourceManager节点上运行MR程序的ApplicationMaster服务。重新配置YARN,并设置资源管理器和节点管理器。 5. 安装Spark:以二进制文件的形式下载Spark,并将其解压缩到目标位置。编辑Spark配置文件,并设置必要的参数,例如运行模式,内存设置和调试选项。 6. 安装Hive:以二进制文件的形式下载Hive,并按照说明进行安装。配置Hive,并设置Metastore和HiveServer2。 7. 安装HBase:以二进制文件的形式下载HBase,并按照说明进行安装。配置HBase,并设置区域服务器和HBase主服务器。 8. 安装Oozie:以二进制文件的形式下载Oozie,并按照说明进行安装。编辑Oozie配置文件,并设置必要的参数,例如数据库连接,属性和内存设置。 9. 安装Kafka:以二进制文件的形式下载Kafka,并按照说明进行安装。配置Kafka,并设置必要的参数,例如Zookeeper连接,日志存储位置和日志大小限制。 10. 安装Flume:以二进制文件的形式下载Flume,并按照说明进行安装。配置Flume,并设置必要的参数,例如Flume代理,事件类型和目标。 11. 安装Flink:以二进制文件的形式下载Flink,并按照说明进行安装。配置Flink,并设置必要的参数,例如集群模式,任务管理器,计算管道和作业提交方式。 12. 安装ES:以二进制文件的形式下载Elasticsearch,并按照说明进行安装。配置Elasticsearch,并设置必要的参数,例如节点类型,索引设置和查询配置。 13. 安装Redash:以二进制文件的形式下载Redash,并按照说明进行安装。配置Redash并设置必要的参数,例如数据库连接,权限和查询模式。 以上提到的大数据技术是开源的,所以可以在官网上找到相关二进制文件和详细的安装部署指南。也可以使用一些自动化的部署工具,如Puppet和Ansible来简化整个过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值