jdbc调用sparksql on yarn

17 篇文章 0 订阅

spark sql访问hive表
1.将hive-site.xml拷贝到spark目录下conf文件夹
2.(非必需)将mysql的jar包引入到spark的classpath,方式有如下两种:
方式1:需要在$SPARK_HOME/conf/spark-env.sh中的SPARK_CLASSPATH添加jdbc驱动的jar包

export SPARK_CLASSPATH=$SPARK_CLASSPATH:/usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar

方式2:在spark-sql命令中指定driver-class-path,如
local模式

spark-sql --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar

集群模式:

spark-sql --master yarn --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar

开启HiverServer2
默认模式为yarn-client,HiverServer作为一个yarn的应用运行,如图:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20181127144348670.png

内网连接:
sbin/start-thriftserver.sh --master yarn --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar
外网连接:
sbin/start-thriftserver.sh --hiveconf hive.server2.thrift.port=10000 --hiveconf hive.server2.thrift.bind.host=hadoop-master --master yarn --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar

如果指定yarn-cluster模式会报错:
在这里插入图片描述
停止thriftserver

sbin/stop-thriftserver.sh 

beeline客户端访问thrift server
通过-n指定sql以那个用户执行,下面两个ip是hadoop-master的内外网地址

beeline -u jdbc:hive2://10.9.2.100:10000 -n hive --hiveconf mapreduce.job.queuename=mxbs
beeline -u jdbc:hive2://122.23.368.32:10000 -n hive --hiveconf mapreduce.job.queuename=mxbs

在这里插入图片描述

java样例程序

import java.sql.*;
import java.util.HashSet;
import java.util.Set;


public class SimpleDemo1 {
    private final static Set<String> HIVE_CONFIGS = initConfig();

    /**
     * hive conf设置
     *
     * @return
     */
    private static Set<String> initConfig() {
        Set<String> configs = new HashSet<String>();
        configs.add("set mapreduce.job.queuename=queue1");
        configs.add("set hive.cli.print.header=false");
        return configs;
    }


    /**
     * 临时去掉所有错误处理和资源关闭
     * @param args
     * @throws ClassNotFoundException
     * @throws SQLException
     */
    public static void main(String[] args) throws ClassNotFoundException, SQLException {
        String jdbcdriver = "org.apache.hive.jdbc.HiveDriver";
        String jdbcurl = "jdbc:hive2://127.0.0.1:10000";
        String username = "user001";
        String password = "";

        Connection conn = null;
        Statement statement = null;

        Class.forName(jdbcdriver);
        DriverManager.setLoginTimeout(20);
        conn = DriverManager.getConnection(jdbcurl, username, password);
        statement = conn.createStatement();

        for (String config : HIVE_CONFIGS) {
            statement.execute(config);
        }

        String sql = "select * from db1.test limit 10";
        print(statement.executeQuery(sql));
    }
}

maven引用:

<hadoop.version>2.6.0-cdh5.13.0</hadoop.version>
<hive-jdbc.version>1.1.0</hive-jdbc.version>        

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-jdbc</artifactId>
    <version>${hive-jdbc.version}</version>
    <exclusions>
        <exclusion>
            <groupId>org.eclipse.jetty.aggregate</groupId>
            <artifactId>jetty-all</artifactId>
        </exclusion>
        <exclusion>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-shims</artifactId>
        </exclusion>
    </exclusions>    
</dependency>
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-common</artifactId>
    <version>${hadoop.version}</version>
</dependency>
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值