zeppelin-0.8.2与cdh-5.16.2 的hive,impala集成

1.zeppelin下载

目前zeppelin的版本有最新的是预发版的0.9。出于稳定性考虑,选择2019年就已经发行的zeppelin-0.82.

 wget https://mirror.bit.edu.cn/apache/zeppelin/zeppelin-0.8.2/zeppelin-0.8.2-bin-all.tgz

tar -zxvf ./zeppelin-0.8.2-bin-all.tgz

cd zeppelin-0.8.2-bin-all

cp conf/zeppelin-env.sh.template conf/zeppelin-env.sh

 

2.准备配置文件和相关jar包

安装zeppelin的机器最好是cdh的一台gateway,也就是客户端,上面有分配hdfs,yarn,spark,hive的客户端角色。

zeppelin的hive,impala都是通过jdbc方式连接的。hive的jdbc jar包cdh自带,但是impala的jdbc jar包需要自己下载。

准备impala相关jar

wget https://downloads.cloudera.com/connectors/impala_jdbc_2.5.41.1061.zip

unzip impala_jdbc_2.5.41.1061.zip

进入解压目录,解压jdbc41压缩包

unzip Cloudera_ImpalaJDBC41_2.5.41.zip 

cd zeppelin-0.8.2-bin-all/interpreter/jdbc

mkdir -p impala/lib

将上述解压出来的impala jar包全部移动到impala/lib 目录下

准备hive相关jar

cd zeppelin-0.8.2-bin-all/interpreter/jdbc

mkdir -p hive/lib

拷贝hive先关jar到hive/lib目录

cp /opt/cloudera/parcels/CDH/jars/hive-exec-1.1.0-cdh5.16.2.jar    ./
cp /opt/cloudera/parcels/CDH/jars/hive-jdbc-1.1.0-cdh5.16.2.jar  ./   
cp /opt/cloudera/parcels/CDH/jars/hive-cli-1.1.0-cdh5.16.2.jar  ./
cp /opt/cloudera/parcels/CDH/jars/hive-service-1.1.0-cdh5.16.2.jar  ./  

 

3.在zeppelin中配置

编辑conf/zeppelin-env.sh文件.这里比较简单,目的只是快速启动

 export JAVA_HOME=/usr/java/jdk1.8.0_144                
 export ZEPPELIN_ADDR=x.x.x.x                         
 export ZEPPELIN_PORT=8080                          
 export ZEPPELIN_MEM="-Xms1024m -Xmx1024m -XX:MaxPermSize=512m"

浏览器访问机器的8080端口,点击右上角的interpreter

 

点击右上角的create 按钮.进行interpreter的新增

hive interpreter 主要属性

interpreter name = hive

interpreter group = jdbc

default.driver = org.apache.hive.jdbc.HiveDriver

default.url = jdbc:hive2://x.x.x.x:10000

default.splitQueries = true

default.user = hive

在dependencies 下把上面准备好的hive/lib 目录下的jar包路径填上。效果如下:

 

impala interpreter 主要属性

interpreter name = impala

interpreter group = jdbc

default.driver = com.cloudera.impala.jdbc41.Driver

#impala的jdbc连接方式可以参考另一篇文章

default.url = jdbc:impala://x.x.x.x:25004;AuthMech=3;UID=impala;PWD=;UseSasl=0

default.splitQueries = false

default.user = impala

测试zeppelin上impala,hive的功能

在zeppelin的主界面新建notebook.一个notebook只能选择一个interpreter group.

 

hive demo

首行必须是%hive

impala demo

首行必须是%impala

4.总结

zeppelin这个工具更加偏向于快速集成,敏捷开发。提供了简单的可配置化的方式集成spark,jdbc,hbase,ignite等多种数据源。但是本身功能做的很简陋,只是最简单的查询工具。没有像hue一样的元数据,历史记录,sql提示,工作调度等功能。这就意味着平台没有任何交互性的友好提示,全靠用户自己。

个人认为适合有一定基础的编程人员,后台管理人员,不适合面向数据分析师,运营人员等普通用户。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建流程如下: 1. 创建虚拟机模板机:先安装虚拟化软件,如VMware Workstation,然后安装一个操作系统,如CentOS,配置好环境和软件,最后将其保存为虚拟机模板机。 2. 创建分布式集群:使用虚拟机模板机创建多个虚拟机,每个虚拟机都要安装相同的操作系统和软件,配置好网络和主机名等信息。然后使用分布式集群软件,如Apache Hadoop,将这些虚拟机组成一个分布式集群。 3. 安装OpenResty:在分布式集群中选择一台虚拟机,安装OpenResty,配置好Nginx和Lua环境,实现高性能的Web应用开发。 4. 安装Hadoop:在分布式集群中选择一台虚拟机,安装Hadoop,配置好HDFS和MapReduce等组件,实现大规模数据的分布式存储和处理。 5. 安装Zookeeper:在分布式集群中选择一台虚拟机,安装Zookeeper,配置好ZAB协议,实现分布式应用程序协调服务。 6. 安装Flume:在分布式集群中选择一台虚拟机,安装Flume,配置好数据采集和传输管道,实现数据的收集和传输。 7. 安装Hive和MySQL:在分布式集群中选择一台虚拟机,安装Hive和MySQL,配置好元数据和数据存储,实现数据的查询和分析。 8. 安装Zeppelin:在分布式集群中选择一台虚拟机,安装Zeppelin,配置好可视化工具和数据源,实现数据的可视化和探索。 9. 安装DolphinScheduler:在分布式集群中选择一台虚拟机,安装DolphinScheduler,配置好任务调度和执行,实现自动化任务的执行和管理。 10. 安装SuperSet:在分布式集群中选择一台虚拟机,安装SuperSet,配置好可视化工具和数据源,实现数据的可视化和探索。 以上是搭建流程的大致步骤,具体实现过程需要根据实际情况进行配置和调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值