1、superset连接hive过程
(1)本次我们使用了anaconda,直接在名字叫superset的python环境里面,pip install pyhive[hive]
此命令既下载了pyhive也下载了它所依赖的其他安装包。
但是你也可以使用多个命令:
pip install pyhive
pip install sasl
pip install thrift
pip install thrift-sasl
pip install pyhs2
然后包下载完了,接下来可以在superset上测试是否可以连接hive了!!!
2、遇见的错误
安装完各种安装包之后,使用superset连接hive的进行测试还会报错。
首先打开superset,选择database,选择Apache Hive为连接类型,写的uri为:
统一格式为:
hive://hive所在主机的ip地址/数据库名?auth=NONE
我写的是:
hive://bigdata1:10000/default?auth=NONE
问题1:如果遇见驱动不匹配(报错信息:Could not load database driver: SparkEngineSpec)
就返回前面的内容下载完依赖包即可。
问题2:报错信息:
cationHandler.java:422’, ‘org.apache.hadoop.io.retry.RetryInvocationHandler C a l l : i n v o k e M e t h o d : R e t r y I n v o c a t i o n H a n d l e r . j a v a : 16 5 ′ , ′ o r g . a p a c h e . h a d o o p . i o . r e t r y . R e t r y I n v o c a t i o n H a n d l e r Call:invokeMethod:RetryInvocationHandler.java:165', 'org.apache.hadoop.io.retry.RetryInvocationHandler Call:invokeMethod:RetryInvocationHan