使用Scala/Java对Iceberg数据湖的Hive Catalog/Hadoop Catalog/HDFS Path进行表操作

1. Hive Catalog(创建表、加载表、重命名表、删除表)

  1. pom.xml添加依赖如下:
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>3.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-mapreduce-client-core</artifactId>
            <version>3.3.1</version>
        </dependency>


        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-metastore</artifactId>
            <version>3.1.2</version>
        </dependency>



        <dependency>
            <groupId>org.apache.iceberg</groupId>
            <artifactId>iceberg-core</artifactId>
            <version>0.13.1</version>
        </dependency>


        <dependency>
            <groupId>org.apache.iceberg</groupId>
            <artifactId>iceberg-hive-metastore</artifactId>
            <version>0.13.1</version>
        </dependency>

  1. 将Hadoop的配置文件core-site.xml和hdfs-site.xml,放到项目的src/main/resources目录下

  2. 创建表、加载表、重命名表、删除表示例

import org.apache.iceberg.hive.HiveCatalog
import org.apache.hadoop.conf.Configuration
import org.apache.iceberg.Table
import org.apache.iceberg.catalog.TableIdentifier
import org.apache.iceberg.Schema
import org.apache.iceberg.types.Types
import org.apache.iceberg.PartitionSpec


object flink_test {

  def main(args: Array[String]): Unit = {

    // =======初始化Hive Catalog=============
    val hiveCatalog:HiveCatalog = new HiveCatalog()
    hiveCatalog.setConf(new Configuration())

    val properties:java.util.HashMap[String,String]=
      new java.util.HashMap[String,String]()
    properties.put("warehouse", "hdfs://nnha/user/iceberg/warehouse")
    properties.put("uri", "thrift://hive1:9083")
    properties.put("clients", "2")    // 客户端连接池大小

    hiveCatalog.initialize("hive_catalog", properties)  // 第一个参数为catalog名称

    // =============创建表==================
    val schema:Schema = new Schema(
      // 通过Java API生成的Schema,需要给每个字段指定唯一ID
      Types.NestedField.required(1, "user_name", Types.StringType.get()),
      Types.NestedField.required(2, "order_time", Types.TimestampType.withZone()),
      Types.NestedField.optional(3, "buy_products", Types.ListType.ofRequired(4, Types.StringType.get()))
    )

    val partitionSpec:PartitionSpec = PartitionSpec.builderFor(schema)
      // 从timestamp类型字段,解析int类型的小时作为分区字段
      .hour("order_time")
      // 直接取表字段作为分区字段
      .identity("user_name")
      .build()

    // 参数分别是数据库名和表名
    val tableName:TableIdentifier = TableIdentifier.of("iceberg_db", "java_hive_table")
    val table:Table = hiveCatalog.createTable(tableName,schema, partitionSpec)


    // =============加载一个已经存在的表=========
    // val table: Table = hiveCatalog.loadTable(TableIdentifier)

    // =============重命名表=========
    // hiveCatalog.renameTable(TableIdentifier, TableIdentifier)

    // =============删除表=========
    // true表示删除metadata目录下的文件,但是不删除metadata目录
    // hiveCatalog.dropTable(identifier:TableIdentifier, purge:Boolean)

  }
}

如果用scala执行,可以用以下命令

[root@hive1 ~]# scala -classpath flink_dev-1.0-SNAPSHOT.jar flink_test

2. Hadoop Catalog(创建表、加载表、重命名表、删除表)

  1. pom.xml添加依赖如下:

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>3.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs-client</artifactId>
            <version>3.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.iceberg</groupId>
            <artifactId>iceberg-core</artifactId>
            <version>0.13.1</version>
        </dependency>

  1. 将Hadoop的配置文件hdfs-site.xml,放到项目的src/main/resources目录下

  2. 创建表、加载表、重命名表、删除表示例

import org.apache.hadoop.conf.Configuration
import org.apache.iceberg.catalog.TableIdentifier
import org.apache.iceberg.hadoop.HadoopCatalog
import org.apache.iceberg.types.Types
import org.apache.iceberg.{PartitionSpec, Schema, Table}


object flink_test {

  def main(args: Array[String]): Unit = {

    // =======初始化Hadoop Catalog=============
    val warehousePath: String = "hdfs://nnha/user/iceberg/warehouse"
    val hadoopCatalog: HadoopCatalog = new HadoopCatalog(new Configuration(), warehousePath)

    // =============创建表==================
    val schema: Schema = new Schema(
      // 通过Java API生成的Schema,需要给每个字段指定唯一ID
      Types.NestedField.required(1, "user_name", Types.StringType.get()),
      Types.NestedField.required(2, "order_time", Types.TimestampType.withZone()),
      Types.NestedField.optional(3, "hobby", Types.ListType.ofRequired(4, Types.StringType.get()))
    )

    val partitionSpec: PartitionSpec = PartitionSpec.builderFor(schema)
      // 从timestamp类型字段,解析int类型的小时作为分区字段
      .hour("order_time")
      // 直接取表字段作为分区字段
      .identity("user_name")
      .build()

    // 参数分别是数据库名和表名
    val tableName: TableIdentifier = TableIdentifier.of("iceberg_db", "java_hadoop_table")
    val table: Table = hadoopCatalog.createTable(tableName, schema, partitionSpec)


    // =============加载一个已经存在的表=========
    // val table: Table = hadoopCatalog.loadTable(TableIdentifier)


    // =============重命名表=========
    // hadoopCatalog.renameTable(TableIdentifier, TableIdentifier)


    // =============删除表=========
    // hadoopCatalog.dropTable(identifier:TableIdentifier, purge:Boolean)


  }
}

如果用scala执行,可以用以下命令

[root@hive1 ~]# scala -classpath flink_dev-1.0-SNAPSHOT.jar flink_test

3. 直接通过HDFS Path创建、加载、删除Hadoop Catalog表

  1. pom.xml添加依赖如下:

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>3.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs-client</artifactId>
            <version>3.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.iceberg</groupId>
            <artifactId>iceberg-core</artifactId>
            <version>0.13.1</version>
        </dependency>

  1. 将Hadoop的配置文件hdfs-site.xml,放到项目的src/main/resources目录下

  2. 创建表、加载表、删除表示例

import org.apache.hadoop.conf.Configuration
import org.apache.iceberg.hadoop.HadoopTables
import org.apache.iceberg.types.Types
import org.apache.iceberg.{PartitionSpec, Schema, Table}



object flink_test {

  def main(args: Array[String]): Unit = {

    // =======初始化Hadoop Tables=============
    val hadoopTables: HadoopTables = new HadoopTables(new Configuration())

    // =============创建表==================
    val schema: Schema = new Schema(
      // 通过Java API生成的Schema,需要给每个字段指定唯一ID
      Types.NestedField.required(1, "user_name", Types.StringType.get()),
      Types.NestedField.required(2, "order_time", Types.TimestampType.withZone()),
      Types.NestedField.optional(3, "hobby", Types.ListType.ofRequired(4, Types.StringType.get()))
    )

    val partitionSpec: PartitionSpec = PartitionSpec.builderFor(schema)
      // 从timestamp类型字段,解析int类型的小时作为分区字段
      .hour("order_time")
      // 直接取表字段作为分区字段
      .identity("user_name")
      .build()

    val warehouseTablePath: String = "hdfs://nnha/user/iceberg/warehouse/iceberg_db/java_hdfs_table"
    val table: Table = hadoopTables.create(schema, partitionSpec, warehouseTablePath)


    // =============加载一个已经存在的表=========
    // val table: Table = hadoopTables.load(warehouseTablePath)

    // =============删除表=========
    // hadoopTables.dropTable(warehouseTablePath:String, purge:boolean)


  }
}

如果用scala执行,可以用以下命令

[root@hive1 ~]# scala -classpath flink_dev-1.0-SNAPSHOT.jar flink_test
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
基于C++&OPENCV 的全景图像拼接 C++是一种广泛使用的编程语言,它是由Bjarne Stroustrup于1979年在新泽西州美利山贝尔实验室开始设计开发的。C++是C语言的扩展,旨在提供更强大的编程能力,包括面向对象编程和泛型编程的支持。C++支持数据封装、继承和多态等面向对象编程的特性和泛型编程的模板,以及丰富的标准库,提供了大量的数据结构和算法,极大地提高了开发效率。12 C++是一种静态类型的、编译式的、通用的、大小写敏感的编程语言,它综合了高级语言和低级语言的特点。C++的语法与C语言非常相似,但增加了许多面向对象编程的特性,如类、对象、封装、继承和多态等。这使得C++既保持了C语言的低级特性,如直接访问硬件的能力,又提供了高级语言的特性,如数据封装和代码重用。13 C++的应用领域非常广泛,包括但不限于教育、系统开发、游戏开发、嵌入式系统、工业和商业应用、科研和高性能计算等领域。在教育领域,C++因其结构化和面向对象的特性,常被选为计算机科学和工程专业的入门编程语言。在系统开发领域,C++因其高效性和灵活性,经常被作为开发语言。游戏开发领域中,C++由于其高效性和广泛应用,在开发高性能游戏和游戏引擎中扮演着重要角色。在嵌入式系统领域,C++的高效和灵活性使其成为理想选择。此外,C++还广泛应用于桌面应用、Web浏览器、操作系统、编译器、媒体应用程序、数据库引擎、医疗工程和机器人等领域。16 学习C++的关键是理解其核心概念和编程风格,而不是过于深入技术细节。C++支持多种编程风格,每种风格都能有效地保证运行时间效率和空间效率。因此,无论是初学者还是经验丰富的程序员,都可以通过C++来设计和实现新系统或维护旧系统。3

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值