Centos6.5 64位 安装Hadoop2.7.0, MapReduce日志分析, Hive2.1.0, JDBC连接Hive查询 (4)

3 篇文章 0 订阅

第四篇 JDBC连接Hive查询


jdbc 连接hive 查询, 要做以下几个事情, 前面也曾提到:

1 在hadoop的core-site.xml 中增加配置

<property>
            <name>hadoop.proxyuser.root.groups</name>
            <value>*</value>
        </property>

        <property>
            <name>hadoop.proxyuser.root.hosts</name>
            <value>*</value>
        </property>

2 让hive支持自定义验证

http://blog.csdn.net/system1024/article/details/51955936


3 编写测试程序

package hive.server2.query;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;
import org.apache.logging.log4j.LogManager;
import org.apache.logging.log4j.Logger;

public class ApiQueryTest {
	private static String driverName = "org.apache.hive.jdbc.HiveDriver";
	private static final Logger logger = LogManager.getLogger("ApiQueryTest");

	public static void main(String[] args) {

		try {
			Class.forName(driverName);
			Connection con = null;
			con = DriverManager.getConnection("jdbc:hive2://10.68.128.215:10000", "root", "kangyun9413");
			Statement stmt = con.createStatement();
			ResultSet res = null;
			String sql = "select sum(num) total, url, status from apis.api_logs group by status, url order by total desc limit 10";
			System.out.println("Running: " + sql);
			res = stmt.executeQuery(sql);
			System.out.println("ok");
			while (res.next()) {
				System.out.println(res.getString(1) + "\t" + res.getString(2) + "\t" + res.getString(3));
			}
		} catch (Exception e) {
			e.printStackTrace();
			System.out.println("error");
		}

	}
}

运行:



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值