hadoop hive java例子,eclipse集成hadoop+spark+hive本地开发图文详解

上一篇文章我们实现了Java+Spark+Hive+Maven实现和异常处理,测试的实例是打包运行在linux环境,但当直接在Windows系统运行时,会有Hive相关异常的输出,本文将帮助您如何在Windows系统上集成Hadoop+Spark+Hive开发环境。

一.开发环境

系统:windows 7

JDK:jdk1.7

eclipse:Mars.2 Release (4.5.2)

Hadoop:hadoop-2.6.5

Spark:spark-1.6.2-bin-hadoop2.6

Hive:hive-2.1.1

二.前期准备

1.系统环境配置

JDK,Hadoop和Spark配置系统环境

2.Hadoop相关文件

winutils.exe和hadoop.dll,下载地址:hadoop2.6.5中winutils和hadoop

将上面2个文件放置..\hadoop-2.6.5\bin目录下;

将winutils.exe同时放置到C:\Windows\System32目录下;

3.新建tmp/hive目录

在应用工程目录中新建tmp/hive目录,由于我的工程是放置在E盘,顾可以在E盘新建tmp/hive目录

三.hive配置

1.Hive环境

本系统的Hive是部署在远程linux集群环境上的。主安装目录ip地址:10.32.19.50:9083

具体Hive在linux环境的部署,请查看相关文档,本文不介绍。

2.Windows中hive-site.xml文件配置

b0806b08874c

windows中hive-site.xml配置

四.实例测试

需求:查询hive数据,eclipse正常显示

1.实例工程结构

b0806b08874c

实例工程

2.pom文件

b0806b08874c

pom中部分依赖

3.测试用例实现

package com.lm.hive.SparkHive;

import org.apache.spark.SparkConf;

import org.apache.spark.api.java.JavaSparkContext;

import org.apache.spark.sql.hive.HiveContext;

/**

* Spark sql获取Hive数据

*

*/

public class App

{

public static void main( String[] args )

{

SparkConf sparkConf = new SparkConf().setAppName("SparkHive").setMaster("local[2]");

JavaSparkContext sc = new JavaSparkContext(sparkConf);

//不要使用SQLContext,部署异常找不到数据库和表

HiveContext hiveContext = new HiveContext(sc);

//        SQLContext sqlContext = new SQLContext(sc);

//查询表前10条数据

hiveContext.sql("select * from bi_ods.owms_m_locator limit 10").show();

sc.stop();

}

}

4.测试结果展示

b0806b08874c

测试结果展示

基于hadoopHive数据仓库JavaAPI简单调用的实例,关于Hive的简介在此不赘述。hive提供了三种用户接口:CLI,JDBC/ODBC和 WebUI CLI,即Shell命令行 JDBC/ODBC 是 HiveJava,与使用传统数据库JDBC的方式类似 WebGUI是通过浏览器访问 Hive 本文主要介绍的就是第二种用户接口,直接进入正题。 1、Hive 安装: 1)hive的安装请参考网上的相关文章,测试时只在hadoop一个节点上安装hive即可。 2)测试数据data文件'\t'分隔: 1 zhangsan 2 lisi 3 wangwu 3)将测试数据data上传到linux目录下,我放置在:/home/hadoop01/data 2、在使用 JDBC 开发 Hive 程序时, 必须首先开启 Hive 的远程服务接口。使用下面命令进行开启: Java代码 收藏代码 hive --service hiveserver >/dev/null 2>/dev/null & 我们可以通过CLI、Client、Web UI等Hive提供的用户接口来和Hive通信,但这三种方式最常用的是CLI;Client 是Hive的客户端,用户连接至 Hive Server。在启动 Client 模式的时候,需要指出Hive Server所在节点,并且在该节点启动 Hive Server。 WUI 是通过浏览器访问 Hive。今天我们来谈谈怎么通过HiveServer来操作Hive。   Hive提供了jdbc驱动,使得我们可以用Java代码来连接Hive并进行一些类关系型数据库的sql语句查询等操作。同关系型数据库一样,我们也需要将Hive的服务打开;在Hive 0.11.0版本之前,只有HiveServer服务可用,你得在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务,如下: 1 [wyp@localhost/home/q/hive-0.11.0]$ bin/hive --service hiveserver -p10002 2 Starting Hive Thrift Server 上面代表你已经成功的在端口为10002(默认的端口是10000)启动了hiveserver服务。这时候,你就可以通过Java代码来连接hiveserver,代码如下:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值