sparksql必要的配置

本文介绍了SparkSQL在运行时遇到的Driver和Executor访问Hive元数据库的权限问题,以及解决办法。同时,详细讲解了`spark-submit`参数设置,如指定`yarn-cluster`模式、内存分配和添加Hive配置文件。最后提到了Spark SQL相对于Hive的效率优势,并讨论了Spark client的使用场景和注意事项,特别是连接Hive元数据的jar包配置。
摘要由CSDN通过智能技术生成

sparksql必要的配置


Driver和Executor权限问题

由于Driver和Excutor在执行过程中需要访问Hive中的元数据库mysql,但是Driver和Executor具体被分配到哪台机器上,这个是不固定的,所以这就要求集群中的所有从节点都需要授权访问mysql,这样所有的节点都可以访问Hive中的元数据库的权限。

Access denied for user ‘root’@’slave1’ (using password: YES)这是在yarn cluster模式下跑spark.sql(“”)的时候会出现的报错的log,这里的slave1表示从节点,这个会随机的,因为driver的不固定原因

--这里有多少个slave就需要进行多少个节点的授权
create user 'root'@'slave1' identified by '你的密码'; 
grant all privileges on *.* to root@'slave1';
flush privileges;

这就解决了从节点授权的问题。

spark-submit需要的参数

cd $SPARK_HOME/bin
./spark-submit \
--class
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值