参考:http://spark.apache.org/docs/2.2.0/sql-programming-guide.html#running-the-thrift-jdbcodbc-server
Spark SQL也可以使用其JDBC / ODBC或命令行界面作为分布式查询引擎。在这种模式下,最终用户或应用程序可以直接与Spark SQL交互以运行SQL查询,而无需编写任何代码。
运行Thrift JDBC / ODBC服务器
这里实现的Thrift JDBC / ODBC服务器对应于 HiveServer2 Hive 1.2.1中的您可以使用Spark或Hive 1.2.1附带的beeline脚本测试JDBC服务器。
要启动JDBC / ODBC服务器,请在Spark目录中运行以下命令:
./sbin/start-thriftserver.sh
该脚本接受所有bin/spark-submit命令行选项,并且还有一个–hiveconf选项来指定Hive属性。您可以运行./sbin/start-thriftserver.sh --help所有可用选项的完整列表。默认情况下,服务器在localhost:10000上侦听。你可以通过两个环境变量覆盖这个行为,即:
export HIVE_SERVER2_THRIFT_PORT=<