java 实现 Hive 导入到 mysq

[程序名] HiveToMysql

[作用  ] 从 hive 导出数据到 mysql

[描述  ] 由于 sqoop 对以下功能支持不好:
1.导出-导入字段的映射
2.只导入部分字段
3.导出时无法设置常量值给导入字段
4.支持重复导入/清除重复数据
故开发此程序,支持以上功能.
[用法  ] 运行 wrap_all.sh.


[额外  ] 本程序在处理出错时会返回错误码给上层调用者, 可以兼容 Tss 捕获脚本运行的错误. Tss 中将 wrap.sh 指定为运行脚本即可.


[配置  ] dump.conf 是总体配置文件.它指明了 hive 和 mysql 的库信息, 以及一些导出-导出配置, 如下:
1.dump.conf 中 ds 表示要导出大数据某个日期的数据. ds 不设置或设置为 ? 表示取上一个自然日期
2.一般情况下 dump.conf 变量的配置不需要更改.它们都有默认值.
3.delete_before_dump(默认为 false) 若设置为 true 则先从 mysql 库删除数据(where 条件参考的是 map 文件中配置的常量,见 map 配置),一般应该这样做,这样

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
将数据从 Hive 导入到 Doris 的步骤如下: 1. 在 Hive 中创建一个外部表,将其指向需要导入到 Doris 的数据源。 2. 在 Doris 中创建一个与 Hive 相对应的表,确保表结构与 Hive 中的表结构一致。 3. 使用 Doris 的 LOAD 命令将 Hive 中的数据导入到 Doris 中的表中。 下面是具体的操作步骤: 1. 在 Hive 中创建一个外部表,将其指向需要导入到 Doris 的数据源。例如,如果需要导入的数据源是一个 Parquet 文件,则可以使用以下命令创建外部表: ``` CREATE EXTERNAL TABLE hive_table ( column1 type1, column2 type2, ... ) STORED AS PARQUET LOCATION 'hdfs://path/to/parquet/file'; ``` 2. 在 Doris 中创建一个与 Hive 相对应的表,确保表结构与 Hive 中的表结构一致。可以使用 Doris 的 CREATE TABLE 命令创建表,例如: ``` CREATE TABLE doris_table ( column1 type1, column2 type2, ... ) ``` 3. 使用 Doris 的 LOAD 命令将 Hive 中的数据导入到 Doris 中的表中。可以使用以下命令将数据导入到 Doris 表中: ``` LOAD DATA INFILE 'hdfs://path/to/parquet/file' INTO TABLE doris_table; ``` 在导入数据时,需要注意以下几点: - Doris 表的列顺序必须与 Hive 表的列顺序一致。 - Doris 表的列数必须与 Hive 表的列数一致。 - Doris 表的列类型必须与 Hive 表的列类型一致。 - Doris 表的分隔符必须与 Hive 表的分隔符一致(如果是文本格式的数据)。 - 导入数据时需要确保 Doris 表的 schema 和 Hive 表的 schema 一致。如果两者不一致,可以在 Doris 表中使用 ALTER TABLE 命令修改表结构。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值