Hive简单介绍+使用


Hive 总结

1.什么是Hive

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

2.为什么要使用Hive

(1)直接使用hadoop所面临的问题

1> 人员学习成本太高
2> 项目周期要求太短
3> MapReduce实现复杂查询逻辑开发难度太大

(2)为什么要使用Hive

1>操作接口采用类SQL语法,提供快速开发的能力。
2>避免了去写MapReduce,减少开发人员的学习成本。
3>扩展功能很方便。

3.Hive的特点

1.可拓展;
2.延展性;
3.容错性

4.Hive和Hadoop的关系

Hive利用HDFS存储数据,利用MapReduce查询数据

5.Hive与传统数据库相比

hiveRDBMS
查询语言HQLSQL
数据存储HDFSRaw DEVICE or local FS
执行MapReduceExcutor
执行延迟
处理数据规模
索引0.8版本后加入位置索引又复杂的索引

总结:Hive具有sql数据库的外表,但应用场景完全不同,hive只时候用来做批量数据统计分析

6.Hive的数据存储

  1. Hive中所有的数据都存储在 HDFS 中,没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile,RCFILE等)
  2. 只需要在创建表的时候告诉 Hive 数据中的列分隔符和行分隔符,Hive 就可以解析数据。
  3. Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket。
  • db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹
  • table:在hdfs中表现所属db目录下一个文件夹
  • external table:与table类似,不过其数据存放位置可以在任意指定路径
  • partition:在hdfs中表现为table目录下的子目录
  • bucket:在hdfs中表现为同一个表目录下根据hash散列之后的多个文件

7.Hive命令

1.Hive启动shell

bin/hive

2.Hive命令行执行sql

hive -e sql

3.DDL操作

一,创建表
建表语法
`CREATE [EXTERNAL] TABLE [IF NOT EXISTS]` table_name
[(col_name data_type [COMMENT col_comment],)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment],)]
[CLUSTERED BY (col_name, col_name,)
[SORTED BY (col_name [ASC|DESC],)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]

说明:

  • CREATE TABLE 创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;用户可以用 IF NOT EXISTS 选项来忽略这个异常。
  • EXTERNAL关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。
  • LIKE 允许用户复制现有的表结构,但是不复制数据。
ROW FORMAT
DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, …)]

用户在建表的时候可以自定义 SerDe 或者使用自带的 SerDe。如果没有指定 ROW FORMAT 或者 ROW FORMAT DELIMITED,将会使用自带的 SerDe。在建表的时候,用户还需要为表指定列,用户在指定表的列的同时也会指定自定义的 SerDe,Hive通过 SerDe 确定表的具体的列的数据。

  • STORED AS
    SEQUENCEFILE|TEXTFILE|RCFILE
    如果文件数据是纯文本,可以使用 STORED AS TEXTFILE。如果数据需要压缩,使用 STORED AS SEQUENCEFILE。
  • CLUSTERED BY
    对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是 针对某一列进行桶的组织。Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。
    把表(或者分区)组织成桶(Bucket)有两个理由:
    (1)获得更高的查询处理效率。桶为表加上了额外的结构,Hive 在处理有些查询时能利用这个结构。具体而言,连接两个在(包含连接列的)相同列上划分了桶的表,可以使用 Map 端连接 (Map-side join)高效的实现。比如JOIN操作。对于JOIN操作两个表有一个相同的列,如果对这两个表都进行了桶操作。那么将保存相同列值的桶进行JOIN操作就可以,可以大大较少JOIN的数据量。
    (2)使取样(sampling)更高效。在处理大规模数据集时,在开发和修改查询的阶段,如果能在数据集的一小部分数据上试运行查询,会带来很多方便。
具体实例
1.创建内部表 test_table:
hive (default)> create table if not exists test_table(sid int,sname string)
              > row format delimited fields terminated by '\005' stored as textfile;
2.创建外部表 pageview:
hive (default)> create external table if not exists pageview (
              > pageid int,page_url string comment 'The page URL' )
              > row format delimited fields terminated by ','
              > location 'hdfs://cluster-version1/cluster-version1/user/hive/warehouse/';
3.创建分区表 invites:
hive (default)> create table student_p(Sno int,Sname string,Sex string,Sage int,Sdept string) 
              > partitioned by(part string) row format delimited fields terminated by ','stored as textfile;
4.创建带桶的表 student:
hive (default)> create table student(id int, age int,name string)
              > partitioned by (stat_data string)
              > clustered by (id) sorted by (age) into 2 buckets
              > row format delimited fields terminated by ',';
二,修改表
1.增加/删除分区
ALTER TABLE table_name ADD [IF NOT EXISTS] partition_spec [ LOCATION ‘location1’ ] partition_spec [ LOCATION ‘location2’ ] …
partition_spec:
: PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value,)
ALTER TABLE table_name DROP partition_spec, partition_spec,
具体实例
student_p 表增加分区:
hive (default)> alter table student_p add partition(part='a') partition(part='b');
2.重命名表
ALTER TABLE table_name RENAME TO new_table_name
具体实例
将student表重命名为student1:
hive (default)> alter table student rename to student1;
3.增加/更新列
ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment],)
ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]
注:ADD是代表新增一字段,字段位置在所有列后面(partition列前),REPLACE则是表示替换表中所有字段。
具体实例
hive (default)> alter table student add columns (name1 string);
hive (default)> alter table student replace columns (id int,age int, name string);
三、显示命令
show tables
show databases

查看某个表的分区:

show partitions tablename;

查看系统自带的函数

show functions

显示自带的函数的用法

desc function when;

查看表的详细信息(表的类型(内部表、外部表),表压缩否)

desc extended t_name;

格式化输出表信息

desc formatted table_name;

4.DML操作

一、Load
LOAD DATA [LOCAL] INPATH ‘filepath’ [OVERWRITE] INTO
TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 …)]

说明:

  • Load 操作只是单纯的复制/移动操作,将数据文件移动到 Hive 表对应的位置。
  • filepath:
    • 相对路径,例如:project/data1
    • 绝对路径,例如:/user/hive/project/data1
    • 包含模式的完整 URI,列如:hdfs://namenode:9000/user/hive/project/data1
  • LOCAL关键字
    如果指定了 LOCAL, load 命令会去查找本地文件系统中的 filepath。
    如果没有指定 LOCAL 关键字,则根据inpath中的uri查找文件
  • OVERWRITE 关键字
    如果使用了 OVERWRITE 关键字,则目标表(或者分区)中的内容会被删除,然后再将 filepath 指向的文件/目录中的内容添加到表/分区中。
    如果目标表(分区)已经有一个文件,并且文件名和 filepath 中的文件名冲突,那么现有的文件会被新文件所替代。
具体实例

1.加载相对路径数据:

hive (default)> load data local inpath 'buckutes' into table student partition(stat_data='20220302');

2.加载绝对路径数据

3.加载包含模式数据:

hive (default)> load data local inpath 'hdfs://cluster-version1/cluster-version1/user/hive/warehouse/student/stat_data=20220302'
              > into table student partition(stat_data='20220302');

4.OVERWRITE 关键字的使用

Hive Java API

package yubin_test.HiveOption;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;

import org.junit.After;
import org.junit.Before;
import org.junit.Test;

public class Hive_test {

    private static String driverName = "org.apache.hive.jdbc.HiveDriver";
    private static String url = "jdbc:hive2://udp01:10000/";
    private static String user = "hadoop";
    private static String password = "hadoop";

    private static Connection conn = null;
    private static Statement statement = null;
    private static ResultSet rs = null;

    public static void main(String[] args) throws Exception {
        showDatabases();
        createDatabase("databaseName");
        createTable("databaseName","create sql");
        
    }
    @Before
    public void init() throws Exception {
        Class.forName(driverName);
        conn = DriverManager.getConnection(url, user, password);
        statement = conn.createStatement();
    }

    //查看库
    @Test
    public static  void showDatabases() throws Exception {
        String sql = "show databases";
        System.out.println("Running: " + sql + "\n");
        rs = statement.executeQuery(sql);
        while (rs.next()) {
            System.out.println(rs.getString(1));
        }
    }

    //创建库
    @Test
    public static void createDatabase(String databaseNname) throws Exception {
        String sql = "create database " + databaseNname;
        System.out.println("Running: " + sql);
        statement.executeQuery(sql);
    }

    //删除库
    @Test
    public static  void dropDatabase(String databaseNname) throws Exception {
        String sql = "drop database if exists" + databaseNname;
        System.out.println("Running: " + sql);
        statement.execute(sql);
    }

    //创建表
    @Test
    public static void createTable(String databaseName,String createTableSql) throws Exception {
//        String createTableSql = "create table xueyuan_hive_01(id int ,name String) row format delimited fields terminated by ',';";
        String sql = "use" + databaseName;
        System.out.println("Running: " + sql);
        statement.execute(sql);
        System.out.println("Running: " + createTableSql);
        statement.execute(createTableSql);
        System.out.println("创建" + createTableSql + "成功");
    }
    
    //查询表
    @Test
    public static void selectData(String databaseName) throws Exception {
        String sql = "select * from " + databaseName;
        System.out.println("Running: " + sql);
        rs = statement.executeQuery(sql);
        while (rs.next()) {
            System.out.println(rs.getInt(1) + "\t" + rs.getString(2));
        }
    }
    

    //下载表
    @Test
    public static void loadData() throws Exception {
        String filePath = "/usr/tmp/student";
        String sql = "load data local inpath '" + filePath + "' overwrite into table t2";
        System.out.println("Running: " + sql);
        statement.execute(sql);
    }

    //删除表
    @Test
    public static void drop(String tableName) throws Exception {
        String dropSQL = "drop table " + tableName;
        boolean bool = statement.execute(dropSQL);
        System.out.println("删除表是否成功:" + bool);
    }
    
    
    @After
    public void destory() throws Exception {
        if (rs != null) {
            rs.close();
        }
        if (statement != null) {
            statement.close();
        }
        if (conn != null) {
            conn.close();
        }
    }
}
声明 该文非原创,非常感谢以下2位大佬。 1.HIVE总结部分是从 CSDN博主「活出别致的高傲」的原创文章中搬过来的,连接在这里:[HIVE详细总结](https://blog.csdn.net/qq_43006059/article/details/94354766) 2.HIVE Java API部分是从 CSDN博主「不言尘世」的原创文章中搬过来的,连接在这里:[Hive API操作(亲测有效)](https://blog.csdn.net/weixin_43599377/article/details/103812575)**
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值