Spark 整合hive

    1.hive的类库需要在spark worker节点。
        默认spark中包含了hive类库
    2.复制core-site.xml(hdfs) + hdfs-site.xml(hdfs) + hive-site.xml(hive)三个文件
      到spark/conf下。
        cp /soft/hive/conf/hive-site.xml /soft/spark/conf/

    3.复制mysql驱动程序到/soft/spark/jars下
        cp /soft/hive/lib/mysql-connector-java-5.1.47.jar /soft/spark/jars/
    
    4.启动spark-shell,指定启动模式
        spark-shell --master local[4]
        $scala>
create table tt(id int,name string , age int) row format delimited fields terminated by ','  lines terminated by '\n' stored as textfile ;

        //加载数据到hive表
        $scala>spark.sql("load data local inpath 'file:///home/centos/data.txt' into table mydb.tt");

 

java版的SparkSQL操纵hive表

1.复制配置文件到resources目录下
        core-site.xml
        hdfs-site.xml
        hive-site.xml
    2.pom.xml增加依赖</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值