Hive---Zeppelin安装教程

Zeppelin安装教程

安装zeppelin必须基于Hadoop和Hive上



简介

它提供了一个非常友好的 WebUI 界面,操作相关指令。它可以用于做数据分析和可视化。其后面可以接入不同的数据处理引擎。包括 Flink,Spark,Hive 等。支持原生的 Scala,Shell,Markdown 等。
Zeppelin是一个Apache的孵化项目
一个基于web的笔记本,支持交互式数据分析。你可以用SQL、Scala等做出数据驱动的、交互、协作的文档。(类似于ipython notebook,可以直接在浏览器中写代码、笔记并共享),可以看作一个多用途笔记本。

安装步骤

1.上传zeppelin压缩包

这里直接用xftp上传到/opt/install----没有的可以单独建一个
在这里插入图片描述

2.解压并更名

这里解压到/opt/soft

[root@hadoop install]# tar -zxf zeppelin-0.10.0-bin-all.tgz -C ../soft/
# 切换目录
[root@hadoop install]# cd ../soft
# 更名
[root@hadoop soft]# mv zeppelin-0.10.0-bin-all/ zeppelin

3.修改配置文件

切换到/opt/soft/zeppelin/conf

# 拷贝
[root@hadoop conf]# cp zeppelin-site.xml.template zeppelin-site.xml
[root@hadoop conf]# cp zeppelin-env.sh.template zeppelin-env.sh

在这里插入图片描述

编辑zeppelin-site.xml—将配置文件的ip地址和端口号进行修改

[root@hadoop conf]# vim ./zeppelin-site.xml

在这里插入图片描述

编辑 zeppelin-env.sh—添加JDK和Hadoop环境

[root@hadoop conf]# vim ./zeppelin-env.sh

在这里插入图片描述

拷贝hive文件

[root@hadoop conf]# cp /opt/soft/hive312/conf/hive-site.xml ./

在这里插入图片描述

切换目录拷贝文件

[root@hadoop conf]# cd ../interpreter/jdbc/
[root@hadoop jdbc]# pwd
/opt/soft/zeppelin/interpreter/jdbc

# 拷贝
[root@hadoop jdbc]# cp /opt/soft/hadoop313/share/hadoop/common/hadoop-common-3.1..3.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/curator-client-2.12.0.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/guava-27.0-jre.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/hive-common-3.1.2.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/hive-jdbc-3.1.2.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/hive-serde-3.1.2.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/hive-service-3.1.2.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/hive-service-rpc-3.1.2.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/libthrift-0.9.3.jar ./
[root@hadoop jdbc]# cp /opt/soft/hive312/lib/protobuf-java-2.5.0.jar ./

在这里插入图片描述

需要外部jar拷贝

用xftp上传到/opt/soft/zeppelin/interpreter/jdbc
在这里插入图片描述在这里插入图片描述

编写环境配置

[root@hadoop jdbc]# vim /etc/profile
[root@hadoop jdbc]# source /etc/profile

在这里插入图片描述

启动

[root@hadoop jdbc]# zeppelin-daemon.sh start
Log dir doesn't exist, create /opt/soft/zeppelin/logs
Pid dir doesn't exist, create /opt/soft/zeppelin/run
Zeppelin start                                             [  OK  ]

在这里插入图片描述

可视化界面

打开浏览器 输入设置的ip+端口号
在这里插入图片描述

配置hive

在这里插入图片描述

操作

create 新建
名字自定义
选择hive
在这里插入图片描述

%hive----执行HQL语句

%hive
show databases;

在这里插入图片描述

%sh-----执行linux命令

%sh
ls /opt/soft
cd /opt/install
ls

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建流程如下: 1. 创建虚拟机模板机:先安装虚拟化软件,如VMware Workstation,然后安装一个操作系统,如CentOS,配置好环境和软件,最后将其保存为虚拟机模板机。 2. 创建分布式集群:使用虚拟机模板机创建多个虚拟机,每个虚拟机都要安装相同的操作系统和软件,配置好网络和主机名等信息。然后使用分布式集群软件,如Apache Hadoop,将这些虚拟机组成一个分布式集群。 3. 安装OpenResty:在分布式集群中选择一台虚拟机,安装OpenResty,配置好Nginx和Lua环境,实现高性能的Web应用开发。 4. 安装Hadoop:在分布式集群中选择一台虚拟机,安装Hadoop,配置好HDFS和MapReduce等组件,实现大规模数据的分布式存储和处理。 5. 安装Zookeeper:在分布式集群中选择一台虚拟机,安装Zookeeper,配置好ZAB协议,实现分布式应用程序协调服务。 6. 安装Flume:在分布式集群中选择一台虚拟机,安装Flume,配置好数据采集和传输管道,实现数据的收集和传输。 7. 安装Hive和MySQL:在分布式集群中选择一台虚拟机,安装Hive和MySQL,配置好元数据和数据存储,实现数据的查询和分析。 8. 安装Zeppelin:在分布式集群中选择一台虚拟机,安装Zeppelin,配置好可视化工具和数据源,实现数据的可视化和探索。 9. 安装DolphinScheduler:在分布式集群中选择一台虚拟机,安装DolphinScheduler,配置好任务调度和执行,实现自动化任务的执行和管理。 10. 安装SuperSet:在分布式集群中选择一台虚拟机,安装SuperSet,配置好可视化工具和数据源,实现数据的可视化和探索。 以上是搭建流程的大致步骤,具体实现过程需要根据实际情况进行配置和调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值