kettle导出导入mysql_使用Kettle导入数据到ADB for PostgreSQL

摘要: 文章介绍了使用Kettle将数据导入到AnalyticDB for PostgreSQL,包括使用表输出方式(INSERT)和批量加载方式(COPY)导入到AnalyticDB for PostgreSQL的详细步骤和操作流程。

Kettle简介

Kettle(现也称为Pentaho Data Integration,简称PDI)是一款非常受欢迎的开源ETL工具软件,主要用于数据整合、转换和迁移。Kettle除了支持各种关系型数据库,HBase MongoDB这样的NoSQL数据源外,它还支持Excel、Access这类小型的数据源。并且通过这些插件扩展,kettle可以支持各类数据源。

下图显示了Kettle和ADB for PostgreSQL之间的关系,数据源通过Kettle进行ETL或数据集成操作以后可以和ADB for PostgreSQL进行交互:

e660d9ab77f9f735777f43989a995ae4.png

Kettle支持的数据来源非常丰富,主要包括以下分类:​

表输入

文本文件输入

生成记录/自定义常量

获取系统信息

各类格式文件输入

Json输入

以及其他输入

更详细的输入可以从界面中的“核心对象”的“输入”分类中查看。

Kettle支持的表输入来源自数据库连接中使用SQL语句获取,其中数据库连接支持非常丰富的连接方式,包括:

Native(JDBC)连接

ODBC连接

OCI连接

JNDI连接

通过这些连接方式,可以支持连接大多数主流数据库,如Oracle, SQL Server, MySQL, DB2, PostgreSQL, Sybase, Teradata等等,更详细的连接信息可以参考官方文档:https://help.pentaho.com/Documentation/8.2/Setup/Configuration/Define_Data_Connections

Kettle导入到ADB for PostgreSQL

Kettle支持导入到ADB for PostgreSQL的方式

目前,Kettle支持的数据导入到ADB for PostgreSQL的方式有:

导入方式

说明

表输出

(INSERT方式)

采用JDBC作为导入方式 支持批量插入,批量插入使用JDBC的batch insert方法

批量加载

(COPY方式)

采用COPY作为导入方式 对于大表,COPY方式性能达到批量插入性能的10倍左右

表输出(INSERT方式)导入会流过Master节点并做解析之后分布到对应的Segment节点上,这种方式相对较慢并且不适合导入大量数据。批量加载(COPY方式)导入方式比INSERT语句插入多行的效率更高。

以下将分别介绍如何通过这两种方式将外部数据迁移到AnalyticDB for PostgresSQL。

准备工作

使用Kettle将外部数据导入AnalyticDB for PostgresSQL之前,需要完成以下准备工作。

在本地主机中安装kettle

在AnalyticDB for PostgreSQL中创建目标数据库、模式和表。

表输出方式导入数据到ADB for PostgreSQL

Kettle采用表输出方式,支持使用通用的JDBC接口,从各种数据库源导入到ADB for PostgreSQL中。以下就以MySQL为例说明如何通过JDBC接口导入数据到ADB for PostgreSQL中。

1.在Kettle中新建一个转换。

2.在转换中新建一个MySQL数据库连接作为输出源,详细的参数配置如下表所示。

配置参数时,不要勾选Use Result Streaming Cursor。

88b23c2c01ef41ed1d64f3278549e308.png

配置项

说明

连接名称

数据连名

连接类型

选择MySQL

连接方式

选择Native(JDBC)

主机名

MySQL的连接地址

数据库名称

MySQL的数据库名

端口号

连接地址对应的端口号

用户名

用户名

密码

用户密码

3.完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。

4.在转换中新建一个Greenplum数据库连接作为输入源,详细的参数配置如下表所示。

f9be61ab875ac6be20dce3d31127fdf8.png

配置项

说明

连接名称

数据连名

连接类型

选择Greenplum

连接方式

选择Native(JDBC)

主机名

AnalyticDB for PostgreSQL的连接地址

数据库名称

AnalyticDB for PostgresSQL的数据库名

端口号

连接地址对应的端口号

用户名

用户名

密码

用户密码

5.​完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。

6.在kettle左侧核心对象的输入中,找到表输入,并将其拖动入到工作区。

dca3c212b3d7978322fcc85b06a3acf6.png

7.双击工作区的表输入,在表输入对话框中进行参数配置。

3a8d482beb0afc36c001cdf39b804097.png

8.在Kettle左侧核心对象的输出中,找到表输出,并将其拖动入到工作区。

b3e69753eb17bd6245f2d9b672c22ad5.png

9.双击工作区的表输出,在表输出对话框中进行参数配置。

e3742ba6a4bb5684483ed251b3b84f1c.png

10.新建一条表输入到表输出的连接线。

ced2ce3b7a3f0f9af84b9ae89c793127.png

11.单击白色三角箭头运行转换,观察运行日志和运行状态。

待MySQL数据成功导入AnalyticDB for PostgreSQL后,您就可以使用AnalyticDB for PostgreSQL进行数据分析。

批量加载方式导入数据到ADB for PostgreSQL

Kettle支持使用批量加载方式(COPY方式)导入数据到ADB for PostgreSQL中。下面步骤举例说明通过从外部文件中批量加载数据到ADB for PostgreSQL中。

1.在Kettle中新建一个转换。

2.在转换中新建一个文本文件输入作为输出源。

d5446a3f3114b24f2c27961ff2b1d589.png

3.双击文本文件输入的图表,选择输入的文本文件。

7db2f8b8592139278835735666a5586d.png

4.在“内容”选项卡中配置输入文件的分隔符。

94c9aba7045fc6f61600483772241d2a.png

5.在“字段”选项卡定义输入文件表中的字段。

4b041d037143eeab20b3321a706cf11c.png

6.在转换中新建一个Greenplum数据库连接作为输入源,详细的参数配置如下表所示。

fc6bd9c77339ee40569c926102ce53d2.png

7.完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。

8.在Kettle左侧核心对象的批量加载中,找到PostgreSQL批量加载,并将其拖动入到工作区。

e586080062efb1983e6b32592e616058.png

9.新建一条文件输入到PostgreSQL批量记载的连接线。

5ae1e39dc4429957cc4664d4f216f1e7.png

10.双击工作区的PostgreSQL批量加载图表,在批量加载对话框中进行参数配置:

4dfac343da73784a22bcda913db50ccd.png

11.单击白色三角箭头运行转换,观察运行日志和运行状态

待数据成功导入AnalyticDB for PostgreSQL后,您就可以使用AnalyticDB for PostgreSQL进行数据分析。

本文作者:陆封

本文为云栖社区原创内容,未经允许不得转载。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值