Linux zeppelin安装
zepplin-0.8.1下载
链接:https://pan.baidu.com/s/1LDM1ZqJRFrozJ1sdfw1Q4w
提取码:p299
1.压缩包导入Linux,(我这里放在/opt文件夹下)
2.解压文件
[root@daibin1 opt]# tar -zxf zeppelin-0.8.1-bin-all.tgz
3.移动文件到存储软件文件夹中
[root@daibin1 opt]# mv zeppelin-0.8.1-bin-all /opt/soft/zeppelin081
4.进入zeppelin安装文件中,进入conf文件夹
[root@daibin1 opt]# cd /opt/soft/zeppelin081/conf
[root@daibin1 conf]# ls
configuration.xsl log4j.properties shiro.ini.template zeppelin-env.sh.te
interpreter-list log4j_yarn_cluster.properties zeppelin-env.cmd.template zeppelin-site.xml
复制zeppelin-site.xml.template文件为zeppelin-site.xml
复制zeppelin-env.sh.template文件zeppelin-env.sh
cp zeppelin-site.xml.template zeppelin-site.xml
cp zeppelin-env.sh.template zeppelin-env.sh
修改zeppelin-site.xml文件
zeppelin.server.addr =虚拟机IP (可选)
zeppelin.server.port=8000 (默认8080,访问过火,修改端口避免阻塞)
进入文件中后,找到如下代码
vi zeppelin-site.xml
--------------------
<!--zeppelin.helium.registry 这一段需要手动添加-->
<property>
<name>zeppelin.helium.registry</name>
<value>helium</value>
</property>
<property>
<name>zeppelin.server.addr</name>
<value>192.168.56.110</value>
<description>Server address</description>
</property>
<property>
<name>zeppelin.server.port</name>
<value>8000</value>
<description>Server port.</description>
</property>
修改zeppelin-env.sh文件
查询JDK路径命令: echo $JAVA_HOME
查询HADOOP路径命令:echo $HADOOP_HOME
vi zeppelin-env.sh
--------------------------
修改或追加:
export JAVA_HOME=/opt/soft/jdk180
export HADOOP_HOME=/opt/soft/hadoop260/etc/hadoop
5.进入zeppelin/bin文件,开启服务 hadoop和zeppelin。
[root@daibin1 conf]# cd ../bin
[root@daibin1 bin]# start-all.sh
[root@daibin1 bin]# ./zeppelin-daemon.sh start
出现[ok] 提示服务启动成功
ZeppelinServer服务进程查询,命令jps,出现ZeppelinServer即服务启动成功。
[root@daibin1 bin]# jps
26586
然后可以打开浏览器 输入ip+端口 进行访问。
#配置hive解释器
Zepplin中没有默认的hive解释器,但是我们可以通过jdbc解释器进行添加。
1.先关闭zepplin服务
[root@daibin1 bin]# ./zeppelin-daemon.sh stop
2.环境和变量配置,将hive-site.xml文件复制到zeppelin081/conf中。
将hadoop260/share/hadoop文件夹中的common/hadoop-common-2.6.0-cdh5.14.2.jar和hive110/lib文件夹中hive-jdbc-1.1.0-cdh5.14.2-standalone.jar复制到zeppelin081/interpreter/jdbc中。
[root@daibin1 bin]# cp /opt/hive110/conf/hive-site.xml /root/zeppelin-0.8.1-bin-all/conf
[root@daibin1 bin]# cp /opt/soft/hadoop260/share/hadoop/common/hadoop-common-2.6.0-cdh5.14.2.jar /opt/soft/zeppelin081/interpreter/jdbc
[root@daibin1 bin]# cp /opt/soft/hive110/lib/hive-jdbc-1.1.0-cdh5.14.2-standalone.jar /opt/soft/zeppelin081/interpreter/jdbc/
3.启动zepplin服务 ./zeppelin-daemon.sh start
4.刷新网页,在右上角anonymous --> interpreter --> +Create新建一个叫做hive的编译器,组名jdbc。
在搜索栏中输入hive,能查看到新创建的编译器hive。
5.设置jdbc连接属性
default.driver=> org.apache.hive.jdbc.HiveDriver
default.url => jdbc:hive2://192.168.42.200:10000
default.user => hive
点击保存,并重启hive 解释器。
6.后台服务启动,在linux中输入如下指令
hive服务启动 hive --server metastore
启动hive2服务 hive --server hiveserver2
7.在zepplin中,点击notebook,通过create new note创建一个notebook。
其中Note Name代表名称,可以自定义,Default Interpreter选择hive(前面刚创建的编译器)。
使用编译器
1.以【%编译器名】作为开头,另起一行进行Hive命令操作,不需要 ; 结尾。
%hive
show databases
点击右上角的右三角,未执行状态显示为ready,成功执行为finished,执行出错为error。
数据表内容查询。
2.导出编译器
整个zeppelin编译器内容可以导出为json格式的文件,点击上方工具栏中“下载”图标导出文件myshop.json。
3.导入编译器
点击网页头部“Zeppelin”回到首页,点击“import note”。
输入编译器名,点击“Select JSON File”,选择所需要的json文件。
一个新的编译器就创建好了,里面是来自myshop.json中的内容。
以%sh开头可以操作linux,可以运行linux指令。