CDH5.5.0里面阉割了spark-sql和sparkR,目录里面都没有start-thriftserver.sh,哪怕是spark Standalone部署。
但是问题来了,jdbc如何使用spark-sql?
Hive的配置里面有HiveServer2是开着的,如下:
插图:
很好,metastore也开着,beeline测试一下
beeline -u jdbc:hive2://192.168.100.11:10000/default -n hive
可以连接上。但是执行的sql,用的是MR,有木有搞错?
插图: