Hive入门教程<3>| 使用JDBC操作hive的两种方式

一、准备

1、数据文件下载city_info.txt 提码1111
2、将数据文件上传到虚拟机
3、在HIVE_HOME/bin目录下启动hive
./hive
4、在hive中创建进数据表city_info
①操作default数据库:
use default;
②建表:

CREATE TABLE `city_info`(
  `city_id` bigint,
  `city_name` string,
  `area` string)
row format delimited fields terminated by '\t';

5、将数据加载进city_info表中
load data local inpath '数据文件路径' into table city_info;
我这里是/opt/module/data/city_info.txt

二、启动hadoop集群

hive操作的数据文件存在hdfs上,所以需要启动hadoop
start-dfs.sh

三、在hive的安装目录下的bin/目录下启动hiveserver2

./hive2server2

在这里插入图片描述

四、两种使用JDBC的方式

一、在虚拟机中的hive的beeline端

在启动HIVE_HOME/bin/目录下启动beeline
启动命令:
./beeline
在这里插入图片描述
然后在beeline下使用JDBC连接mysql:

!connect jdbc:hive2://主机名(安装有mysql的主机)/ip地址:hive的端口号(默认10000)
我这里是
!connect jdbc:hive2://ethan002:10000

在这里插入图片描述
操作mysql如下图所示:
在这里插入图片描述

二、Windows本地idea集成开发环境

1、创建maven项目并添加依赖到pom.xml文件

依赖:

	<dependencies>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j</artifactId>
            <version>2.8.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-jdbc</artifactId>
            <version>1.2.1</version>
        </dependency>
    </dependencies>

2、程序代码编写:

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;

public class HiveJdbc {
    public static void main(String[] args) throws Exception {
        //加载驱动
        Class.forName("org.apache.hive.jdbc.HiveDriver");
        //创建连接
        Connection connection =DriverManager.getConnection("jdbc:hive2://ethan002:10000","ethan","123456");
        //准备sql
        String sql = "select * from default.city_info";
        //预编译sql
        PreparedStatement ps = connection.prepareStatement(sql);
        //执行sql
        ResultSet resultSet = ps.executeQuery();
        //迭代表中的内容
        while (resultSet.next()){
            System.out.println("city_id:"+resultSet.getInt("city_id")+
                    "\tcity_name:"+resultSet.getString("city_name")+
                    "\tarea"+resultSet.getString("area"));
        }
    }
}

3、执行程序

在IDEA中执行JDBC操作hive的程序
结果如下图所示:
在这里插入图片描述

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Hive JDBC Jar是用于使用JDBC连接Hive的Java库。Hive是基于Hadoop的数据仓库基础设施,提供了一种类似SQL的查询语言HiveQL来查询和分析大规模数据集。Hive JDBC Jar实际上是一个Java Archive文件,其中包含了Hive JDBC驱动程序的实现和依赖的类库。 使用Hive JDBC Jar可以方便地在Java应用程序中连接到Hive并执行查询操作。首先,我们需要将Hive JDBC Jar文件添加到Java应用程序的classpath中。然后,在代码中通过指定JDBC连接字符串、用户名和密码来建立连接。创建Hive JDBC连接之后,我们可以使用Java的JDBC API来执行HiveQL查询和操作。例如,我们可以执行SELECT语句来检索数据,或者执行INSERT、UPDATE、DELETE等语句来修改数据。 Hive JDBC Jar使得在Java应用程序中使用Hive变得非常简单和方便。通过使用Hive JDBC,我们可以利用Hive的分布式计算能力和SQL查询语言来处理和分析大规模的数据集。此外,Hive JDBC还提供了一些高级功能,如连接池、事务支持等,可以进一步提高应用程序的性能和可靠性。 总而言之,Hive JDBC Jar是用于在Java应用程序中连接Hive的必备库文件。它提供了Hive JDBC驱动程序的实现和必要的依赖类库,使得我们可以方便地在Java应用程序中使用Hive进行数据查询和处理。通过使用Hive JDBC,我们可以充分利用Hive的强大功能,快速地分析和处理大规模数据集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

似懂非dong

你的肯定使我加倍努力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值