spark-sql 写代码方式

1、idea里面将代码编写好打包上传到集群中运行,上线使用

	spark-submit提交

2、spark shell (repl) 里面使用sqlContext 测试使用,简单任务使用

	spark-shell --master yarn-client
	不能使用yarn-cluster Driver必须再本地启动	

3、spark-sql spark-sql --master yarn-client 不能使用yarn-cluster

	可以整合hive  使用hive的元数据
	开启hive元数据服务的目的是让spark sql 可以获取到hive的元数据

1、在hive的hive-site.xml修改一行配置,增加了这一行配置之后,以后在使用hive之前都需要先启动元数据服务

hive.metastore.uris thrift://master:9083

2、启动hive元数据服务

 		nohup  hive --service metastore >> metastore.log 2>&1 &

		验证hive是否可用

3、将hive-site.xml 复制到spark conf目录下cong

在hive/conf目录下
cp hive-site.xml /usr/local/soft/spark-2.4.5/conf/

4、 将mysql 驱动包复制到saprk jars目录下

         在hive/lib目录下
		 cp mysql-connector-java-5.1.17.jar /usr/local/soft/spark-2.4.5/jars/

 		整合好之后在spark-sql 里面就可以使用hive的表了
		spark-sql --master yarn-client  --conf  spark.sql.shuffle.partitions=2
		不能使用cluster模式

		在spark-sql中设置运行参数
		set spark.sql.shuffle.partitions=2;

上传student数据到hdaoop 并建表
create table student
(
id string,
name string,
age int,
gender string,
clazz string
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘,’
STORED AS textfile
location ‘/data/student/’;

分别在hive spark查询学生数据

select clazz,count(1) from student group by clazz;

spark sql速度
在这里插入图片描述
hive速度
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark-Thrift和Spark-SQLSpark框架中的两个组件,它们有以下区别: 1. Spark-SQLSpark的一个模块,用于处理结构化数据,支持SQL查询和DataFrame API。它提供了一种高效且易于使用的方法来处理和分析结构化数据。用户可以使用SQL语句或DataFrame API来查询和操作数据。Spark-SQL允许用户直接在Spark应用程序中使用SQL查询,而无需编复杂的MapReduce代码。 2. Spark-Thrift是Spark的一个独立服务,它提供了一个标准的Thrift接口,用于执行SQL查询。它可以作为一个独立的进程运行,并通过网络接收来自客户端的SQL查询请求,并将查询转发到Spark集群中的Spark-SQL模块进行处理。Spark-Thrift使得可以使用不同的编程语言,如Java、Python、R等,通过Thrift接口与Spark集群交互。 因此,Spark-SQLSpark框架中用于处理结构化数据的模块,而Spark-Thrift是提供Thrift接口让用户可以使用不同编程语言与Spark-SQL模块交互的独立服务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [CDH15.0支持spark-sqlspark-thrift-server](https://blog.csdn.net/u012458821/article/details/87635599)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [122.Thrift和spark-sql客户端部署](https://blog.csdn.net/m0_47454596/article/details/126856172)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值