SparkSQL(13):shell命令中spark-shell、spark-sql以及thriftserver&beeline访问hive表

68 篇文章 0 订阅
51 篇文章 3 订阅

一、spark-shell

1.把hive的hive-site.xml复制到spark的conf下面

2.开启spark-shell

bin/spark-shell --master local[2] --jars /opt/datas/mysql-connector-java-5.1.27-bin.jar

3.运行测试语句

spark.sql("select * from imooc.emp").show
spark.sql("show tables from imooc").show
spark.sql("select * from imooc.emp e join imooc.dept d on e.deptno=d.deptno").show

 

二、spark-sql

1.把hive的hive-site.xml复制到spark的conf下面

2.启动

bin/spark-sql --master local[2] --jars /opt/datas/mysql-connector-java-5.1.27-bin.jar

3.直接运行sql语句

select * from imooc.emp;
show tables from imooc;
select * from imooc.emp e join imooc.dept d on e.deptno=d.deptno;、

三、thriftserver&beeline

1.把hive的hive-site.xml复制到spark的conf下面

2.启动thriftserver

sbin/start-thriftserver.sh  \
--master local[2] \
--jars /opt/datas/mysql-connector-java-5.1.27-bin.jar  \
--hiveconf hive.server2.thrift.port=14000 

服务器:

sbin/start-thriftserver.sh \
--master local[2] \
--jars /opt/datas/mysql-connector-java-5.1.27-bin.jar \
--hiveconf hive.server2.thrift.port=14000

3.启动beeline,连接thriftserver

bin/beeline -u jdbc:hive2://bigdata.ibeifeng.com:14000 -n bigdata.ibeifeng.com

服务器:

bin/beeline -u jdbc:hive2://hadoop:14000 -n hadoop

结果:
Connected to: Spark SQL (version 2.1.0)
Driver: Hive JDBC (version 1.2.1.spark2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 1.2.1.spark2 by Apache Hive
0: jdbc:hive2://hadoop:14000> 

其中

“bigdata.ibeifeng.com:14000”是thriftserver设定端口

“bigdata.ibeifeng.com:14000”是服务器hostname

4.测试

0: jdbc:hive2://hadoop:14000> show tables;
+-----------+-----------------+--------------+--+
| database  |    tableName    | isTemporary  |
+-----------+-----------------+--------------+--+
| default   | dept            | false        |
| default   | emp             | false        |
| default   | hbase2hive      | false        |
| default   | hive2hbase_emp  | false        |
| default   | t               | false        |
+-----------+-----------------+--------------+--+
0: jdbc:hive2://hadoop:14000> select * from emp e join dept d on e.deptno=d.deptno;
+--------+---------+------------+-------+-------------+---------+---------+---------+---------+-------------+-----------+--+
| empno  |  ename  |    job     |  mgr  |  hiredate   |   sal   |  comm   | deptno  | deptno  |    dname    |    loc    |
+--------+---------+------------+-------+-------------+---------+---------+---------+---------+-------------+-----------+--+
| 7369   | SMITH   | CLERK      | 7902  | 1980-12-17  | 800.0   | NULL    | 20      | 20      | RESEARCH    | DALLAS    |
| 7499   | ALLEN   | SALESMAN   | 7698  | 1981-2-20   | 1600.0  | 300.0   | 30      | 30      | SALES       | CHICAGO   |
| 7521   | WARD    | SALESMAN   | 7698  | 1981-2-22   | 1250.0  | 500.0   | 30      | 30      | SALES       | CHICAGO   |
| 7566   | JONES   | MANAGER    | 7839  | 1981-4-2    | 2975.0  | NULL    | 20      | 20      | RESEARCH    | DALLAS    |
| 7654   | MARTIN  | SALESMAN   | 7698  | 1981-9-28   | 1250.0  | 1400.0  | 30      | 30      | SALES       | CHICAGO   |
| 7698   | BLAKE   | MANAGER    | 7839  | 1981-5-1    | 2850.0  | NULL    | 30      | 30      | SALES       | CHICAGO   |
| 7782   | CLARK   | MANAGER    | 7839  | 1981-6-9    | 2450.0  | NULL    | 10      | 10      | ACCOUNTING  | NEW YORK  |
| 7788   | SCOTT   | ANALYST    | 7566  | 1987-4-19   | 3000.0  | NULL    | 20      | 20      | RESEARCH    | DALLAS    |
| 7839   | KING    | PRESIDENT  | NULL  | 1981-11-17  | 5000.0  | NULL    | 10      | 10      | ACCOUNTING  | NEW YORK  |
| 7844   | TURNER  | SALESMAN   | 7698  | 1981-9-8    | 1500.0  | 0.0     | 30      | 30      | SALES       | CHICAGO   |
| 7876   | ADAMS   | CLERK      | 7788  | 1987-5-23   | 1100.0  | NULL    | 20      | 20      | RESEARCH    | DALLAS    |
| 7900   | JAMES   | CLERK      | 7698  | 1981-12-3   | 950.0   | NULL    | 30      | 30      | SALES       | CHICAGO   |
| 7902   | FORD    | ANALYST    | 7566  | 1981-12-3   | 3000.0  | NULL    | 20      | 20      | RESEARCH    | DALLAS    |
| 7934   | MILLER  | CLERK      | 7782  | 1982-1-23   | 1300.0  | NULL    | 10      | 10      | ACCOUNTING  | NEW YORK  |
+--------+---------+------------+-------+-------------+---------+---------+---------+---------+-------------+-----------+--+

结果:

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL是一个用于处理结构化数据的模块,它提供了一种基于SQL的编程接口,可以让用户使用SQL语句来查询数据。ThriftServerSpark SQL的一个组件,它提供了一个基于Thrift协议的服务,可以让用户通过网络连接到Spark SQL,并使用SQL语句来查询数据。Beeline是一个用于连接到ThriftServer命令行工具,它可以让用户通过命令行界面来执行SQL语句。 使用ThriftServerBeeline可以让用户通过网络连接到Spark SQL,并使用SQL语句来查询数据。首先需要启动ThriftServer,可以使用以下命令: ``` ./sbin/start-thriftserver.sh ``` 启动成功后,可以使用Beeline连接到ThriftServer,可以使用以下命令: ``` ./bin/beeline -u jdbc:hive2://localhost:10000 ``` 连接成功后,就可以使用SQL语句来查询数据了。例如,可以使用以下命令查询格: ``` SELECT * FROM table_name; ``` 使用ThriftServerBeeline可以方便地查询Spark SQL的数据,特别是在需要远程访问数据时非常有用。 ### 回答2: ThriftServer(又称HiveServer2)和Beeline都是Spark SQL常用的工具,用于连接和操作Spark SQLThriftServer是一个支持Hive/Spark SQL的服务,它允许用户通过多种编程语言(如Java、Python等)来访问和查询数据。ThriftServer通过Thrift协议提供了基于网络的服务,允许远程客户端连接到Spark集群并执行Spark SQL查询。ThriftServer可以通过配置来启用或禁用Kerberos身份验证,以实现安全连接。 Beeline是一个基于命令行的工具,它是HiveSpark SQL的原生客户端。可以使用Beeline连接到ThriftServer,并通过命令行界面执行Spark SQL查询。Beeline支持多种连接方式,例如通过JDBC连接到ThriftServer、通过Kerberos进行身份验证等。用户可以通过Beeline执行SQL语句、管理数据库、查看查询结果等。 使用ThriftServerBeeline的步骤如下: 1. 首先,确保Spark集群已经启动,并且ThriftServer已经启动。可以通过spark-sqlspark-sql2启动ThriftServer,默认情况下会监听端口10000。 2. 使用Beeline连接到ThriftServer。可以通过命令beeline -u jdbc:hive2://hostname:port进行连接,其hostname是ThriftServer所在的主机名或IP地址,port是ThriftServer监听的端口号。此外,还需要提供用户名和密码进行身份验证。 3. 连接成功后,可以在Beeline执行SQL语句。输入SQL语句后,按下回车键即可执行。查询结果会显示在命令行界面上。还可以使用Beeline提供的命令来管理数据库、查看、导入导出数据等操作。 ThriftServerBeeline的使用简单而方便,能够有效地连接和操作Spark SQL。它们为用户提供了一种灵活的方式来查询和管理数据,便于开发人员和数据分析师使用Spark SQL进行数据处理和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值