zeppelin-0.10.1 安装与部署详细步骤

zeppelin简介

Zeppelin是一个用于数据分析和可视化的开源项目,提供了交互式笔记本的功能,支持多种编程语言(包括Scala,Python,Java等)和数据源(包括Hadoop,Spark,Cassandra等),可以让用户在同一环境下进行数据探索、可视化、建模、数据交互和故障排除等。Zeppelin 的目标是使数据分析和可视化变得更加容易、快捷和可重现。Zeppelin 基于 Apache 开源许可证,可以在各种操作系统上运行。

Zeppelin是一个交互式的数据分析和可视化工具,主要应用于数据科学领域。它的应用场景包括以下几个方面:

  1. 数据探索和分析:Zeppelin提供了交互式的数据探索和分析功能,用户可以通过编写代码或使用预定义的模板来探索和分析数据。

  2. 数据可视化:Zeppelin支持多种数据可视化方式,包括图表、图形、地图等,可以帮助用户更清晰地展示数据分析结果。

  3. 数据报告和分享:Zeppelin可以生成美观的数据报告和分享数据分析结果,用户可以轻松地与团队或客户共享分析结果。

  4. 数据建模和机器学习:Zeppelin支持多种数据建模和机器学习算法,用户可以使用这些算法进行数据建模和预测。

  5. 大数据分析:Zeppelin可以与Hadoop、Spark、Flink等大数据框架集成,可以在大数据场景下进行数据分析和处理。

下载安装包

下载zeppelin

https://dlcdn.apache.org/zeppelin/zeppelin-0.10.1/zeppelin-0.10.1-bin-all.tgz

下载hadoop

查看 hadoop版本 返回3.0.0

hadoop version 

http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz

下载hive

#查看hive 返回2.1.1

hive --version 

http://mirror.bit.edu.cn/apache/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz

上传安装包

1.上传zeppelin压缩包

1.创建目录

mkdir -p /opt/install && chmod -R 700 /opt/install
mkdir -p /opt/soft && chmod -R 700 /opt/soft

上传zeppelin-0.10.1-bin-all.tgz到/opt/install
2.解压更名

tar -zxf zeppelin-0.10.1-bin-all.tgz -C ../soft/

切换目录更名

cd /opt/soft && mv zeppelin-0.10.1-bin-all/ zeppelin

3.修改配置文件

cd /opt/soft/zeppelin/conf
cp zeppelin-site.xml.template zeppelin-site.xml
cp zeppelin-env.sh.template zeppelin-env.sh

4.编辑zeppelin-site.xml 修改ip 端口
检查端口是否在用lsof -i:8090

vim ./zeppelin-site.xml 

编辑 zeppelin-env.sh—添加JDK和Hadoop环境

export JAVA_HOME=/usr/local/java/jdk1.8.0_251
export HADOOP_HOME /opt/cloudera/parcels/CDH/lib/hadoop
export HADOOP_CONF_DIR /etc/hadoop/conf

拷贝hive配置文件

cp /etc/hive/conf.cloudera.hive/hive-site.xml ./

拷贝对应版本的 hadoop包 hive 包
切换目录拷贝文件

cd  /opt/soft/zeppelin/interpreter/jdbc 

拷贝

#hadoop
cp /opt/install/hadoop-3.0.0/share/hadoop/common/hadoop-common-3.0.0.jar ./
#hive
cp /opt/install/apache-hive-2.1.1-bin/lib/curator-client-2.6.0.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/guava-14.0.1.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/hive-common-2.1.1.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/hive-jdbc-2.1.1.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/hive-serde-2.1.1.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/hive-service-2.1.1.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/hive-service-rpc-2.1.1.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/libthrift-0.9.3.jar ./
cp /opt/install/apache-hive-2.1.1-bin/lib/protobuf-java-2.5.0.jar ./
	
#zeppelin
cp /opt/install/zeppelin-0.10.1-bin-all/lib/commons-lang3-3.10.jar ./
cp /opt/install/zeppelin-0.10.1-bin-all/lib/httpclient-4.5.1.jar ./
cp /opt/install/zeppelin-0.10.1-bin-all/lib/httpcore-4.4.1.jar ./

编写环境配置

vim /etc/profile
source /etc/profile
#ZEPPELIN_HOME
export ZEPPELIN_HOME=/opt/soft/zeppelin
export PATH=$PATH:$ZEPPELIN_HOME/bin

启动

cd /opt/soft/zeppelin/bin/
zeppelin-daemon.sh start
Log dir doesn't exist, create /opt/soft/zeppelin/logs
Pid dir doesn't exist, create /opt/soft/zeppelin/run
Zeppelin start                                       
  [  OK  ]

可视化界面

打开浏览器 输入设置的ip+端口号

在这里插入图片描述

配置hive

右上角创建hive解释器
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

配置hive解释器

Interpreter Name:hive

Interpreter group:jdbc

default.driver:org.apache.hive.jdbc.HiveDriver

default.url:jdbc:hive2://172.16.88.139:10000/

default.user:root

#default.password:

添加Hive(jdbc)相关jar包

操作

create 新建-名字自定义-选择hive
在这里插入图片描述
执行HQL语句

%hive 
show databases;

在这里插入图片描述

执行linux命令

%sh 
ls /opt/soft 
cd /opt/install 
Ls

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个详细的搭建流程: 1. 虚拟机模板机 首先需要准备一个虚拟机模板机,可以使用 VMware、VirtualBox 等虚拟机软件来创建。在模板机中需要安装操作系统、必要的软件、配置网络等。可以选择 CentOS、Ubuntu 等操作系统。 2. 分布式集群 在模板机中创建好后,需要根据实际需要来创建分布式集群。可以使用 Hadoop、Spark 等大数据框架来实现分布式计算。需要安装并配置好各个节点的软件,包括 JDK、Hadoop、Spark 等。同时还需要配置好节点间的网络连接。 3. OpenResty OpenResty 是一个基于 Nginx 的 Web 平台,可以用来构建高性能的 Web 应用程序。可以使用 OpenResty 来构建一个 Web 服务,用于数据的接收和处理。 4. Hadoop Hadoop 是一个分布式计算框架,可以用来处理大规模数据集。需要安装并配置好 Hadoop 的各个组件,包括 HDFS、YARN、MapReduce 等。 5. Zookeeper Zookeeper 是一个分布式的协调服务,可以用来管理和维护分布式系统中的配置信息、命名服务、状态信息等。需要安装并配置好 Zookeeper,同时还需要在 Hadoop 集群中配置好 Zookeeper。 6. Flume Flume 是一个分布式的数据采集系统,可以用来收集和汇总数据。需要安装并配置好 Flume,同时还需要在 Hadoop 集群中配置好 Flume。 7. Hive(MySql) Hive 是一个基于 Hadoop 的数据仓库系统,可以用来进行数据的存储和查询。需要安装并配置好 Hive 和 MySql 数据库。 8. Zeppelin Zeppelin 是一个基于 Web 的交互式数据分析和可视化平台,可以用来进行数据分析和可视化。需要安装并配置好 Zeppelin,同时还需要在 Hadoop 集群中配置好 Zeppelin。 9. DolphinScheduler DolphinScheduler 是一个分布式的任务调度系统,可以用来管理和调度各种任务。需要安装并配置好 DolphinScheduler,同时还需要在 Hadoop 集群中配置好 DolphinScheduler。 10. SuperSet可视化 SuperSet 是一个基于 Web 的数据可视化平台,可以用来进行数据分析和可视化。需要安装并配置好 SuperSet,同时还需要在 Hadoop 集群中配置好 SuperSet。 以上就是一个详细的搭建流程,需要注意的是,在每个步骤中都需要按照具体的需求来进行安装和配置,同时还需要注意各个组件之间的兼容性和版本问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值