sparksql读取hive数据源配置

本文介绍了如何配置SparkSQL以读取Hive数据源,包括将hive-site.xml配置到Spark conf,添加MySQL连接器,修改spark-defaults.conf,启动Hive metastore服务,以及启动Spark Thriftserver以通过JDBC方式连接。
摘要由CSDN通过智能技术生成
1、将hive-site.xml内容添加到spark conf配置文件中,内容仅需要元数据连接信息即可
<?xml version="1.0" encoding="UTF-8"?>
 <configuration>
     <property>
             <name>hive.metastore.uris</name>
             <value>thrift://master-centos:9083</value>
             <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>
     </property>
 </configuration>
 并分发到各个节点中
2、如hive元数据采用的是mysql,则需将mysql-connector-java-5.1.25-bin.jar放置 spark/lib下
3、修改 spark-defaults.conf 配置文件
spark-default.conf
spark.master    spark://192.168.130.140:7077
spark.driver.memory     512m
spark.executor.memory  512m
spark.eventLog.enabled  true
spark.eventLog.dir hdfs://192.168.130.140:8020/user/spark/logs (需提前在hadoop上创建好该目录)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值