Spark 分布式SQL引擎,ThriftServer

1.准备:
        分发      

  [/soft/hadoop/etc/hadoop/]
        core-site.xml   
        hdfs-site.xml
  [/soft/hive/conf/]
        hive-site.xml   

        三个文件到所有worker节点的spark/conf目录下

    2.启动spark集群(完全分布式-standalone)      

  $>/soft/spark/sbin/start-all.sh
        master        //201
        worker        //202 ~ 204

    3.创建hive的数据表在默认库下。       

 $>hive -e "create table tt(id int,name string , age int) row format delimited fields terminated by ',' lines terminated by '\n' stored as textfile"

    4.加载数据到hive表中.       

 $>hive -e "load data local inpath 'file:///home/centos/data.txt' into table tt"
 $>hive -e "select * from tt"

    5.启动spark-shell

   $>spark-shell --master spark://s201:7077

    7.启动thriftserver服务器
        $>start-thriftserver.sh  --master spark://s201:7077

 

java 访问:

package com.mao.scala.java;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;

/**
 * java 通过ThriftServer,spark访问hive
 */
public class ThriftServerClientJava {
    public static void main(String[] args) throws Exception {
        Class.forName("org.apache.hive.jdbc.HiveDriver");
        Connection conn = DriverManager.getConnection("jdbc:hive2://s201:10000");
        Statement st = conn.createStatement();
        ResultSet rs  = st.executeQuery("select count(1) from tt where age > 12 ");
        while(rs.next()){
            int count = rs.getInt(1);
            System.out.println(count);
        }
        rs.close();
    }
}

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值