Hive-on-Spark

1.修改 hive/conf/hive-site.xml 新增如下配置

<property>
      <name>hive.metastore.warehouse.dir</name>
      <value>/user/hive/warehouse</value>
    </property>
    <property>
      <name>hive.metastore.local</name>
      <value>false</value>
    </property>

2.拷贝配置文件
拷贝hive conf 中 hive-site.xml配置文件到spark/conf目录下
拷贝 hadoop /etc/hadoop 中 core-site.xml 配置文件到spark/conf目录下
拷贝 hadoop /etc/hadoop 中 hdfs-site.xml 配置文件到spark/conf目录下
把三个文件分发到三个spark节点conf目录下

3.拷贝hive lib 目录下 mysql-connector-java-5.1.38.jar 到spark /jars目录下

4.后台启动 Hive MetaStore服务[可选]
nohup /export/servers/hive/bin/hive --service metastore 2>&1 >> /var/log.log &

SparkSql操作hive表(scalaAPI)

使用IDEA本地测试直接把以上配置文件放在resources目录即可

package spark_on_hive

import org.apache.spark.SparkContext
import org.apache.spark.sql.SparkSession

object sparkSql_Hive {
  def main(args: Array[String]): Unit = {
    //创建sparkSession
    val spark: SparkSession = SparkSession.builder().master("local[*]").appName("sparkSQL_Hive").enableHiveSupport().getOrCreate()
    //根据sparkSession创建SparkContext
    val sc: SparkContext = spark.sparkContext
    sc.setLogLevel("WARN")

    //查询
    spark.sql("show databases").show()
    spark.sql("use telecom").show()
    spark.sql("show  tables").show()
    spark.sql("select * from app_traffic limit 2").show()
   
   //停止sc、spark
    sc.stop()
    spark.stop()

  }

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值