通过kettle将关系型数据库中表导入hive中

思路
要将关系型数据库中的表通过kettle导入到hive中,主要思路是两种:1.直接配置jdbc连接hiveserver2,通过表输入及表输出组件转换;2.先将关系型数据库中的表导入到hdfs中,再通过hdfs导入hive。现就这两种方式作以示例。
本人使用kettle版本为8.2,关系型数据库为mysql。
示例
一、直接连接hiveserver2
配置hive连接如下:
在这里插入图片描述
点击测试,成功连接。在这里插入图片描述
现将mysql中某表导入hive中default库,
在这里插入图片描述
在这里插入图片描述
二、先通过hadoop file output组件将mysql中表导出至hdfs,再导入hive表中。
这种方式较上一种稍显复杂。
1、点击kettle工具菜单中的hadoop distribution,查看集群信息。
在这里插入图片描述
2、
将hadoop集群配置文件core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml复制进kettle目录C:\mount\pdi-ce-8.2.0.0-342\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp26,并覆盖原有同名文件。hadoop配置文件可在hadoop安装目录下找,本人为/usr/hdp/2.6.5.0-292/hadoop/conf

3.上步中将配置文件复制进了hdp26目录,故将C:\mount\pdi-ce-8.2.0.0-342\data-integration\plugins\pentaho-big-data-plugin目录中的plugin.properties文件中的hadoop使用配置改成hdp26。在这里插入图片描述
4.配置Hadoop file output组件
首先配置hadoop集群,
在这里插入图片描述
点击测试,通过。
配置hadoop file output
在这里插入图片描述
可通过浏览来选择导出的文件位置。
在这里插入图片描述
注意使用的分隔符以及字符编码,还有是否需要保留文件头部。$[1]为16进制的1,即hive中默认分隔符\001。
在这里插入图片描述
字段区域可以选择最小宽度,去掉左右空格。
5.文件导出至hdfs后,需要load进hive目标表,使用执行sql脚本组件,通过加载命令加载。
在这里插入图片描述
配置完成后,执行转换。
在这里插入图片描述
执行成功。

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kettle是一种ETL工具,用于在关系型数据库和Hadoop生态系统之间进行数据导入和转换。要将Kettle导入Hive,有两种主要思路:直接配置JDBC连接HiveServer2,通过表输入和表输出组件进行转换;或者先将关系型数据库的表导入到HDFS,再通过HDFS导入Hive表。具体的步骤如下: 第一种方式是直接连接HiveServer2: 1. 配置Hive连接,设置JDBC连接HiveServer2。 2. 将关系型数据库的表导入Hive的default库。 第二种方式是先通过Hadoop File Output组件将关系型数据库的表导出至HDFS,再导入Hive。具体步骤如下: 1. 确认Kettle的Hadoop集群信息。 2. 将Hadoop集群的配置文件复制到Kettle目录的hdp26文件夹。 3. 在Kettle目录的plugin.properties文件配置Hadoop使用的配置文件为hdp26。 4. 配置Hadoop File Output组件,选择导出的文件位置、分隔符和字符编码等参数。 5. 文件导出至HDFS后,使用执行SQL脚本组件执行加载命令将数据加载到Hive目标表。 以上就是将Kettle导入Hive的两种常用方式。具体选择哪种方式取决于实际情况和需求。在使用Kettle连接Hive时,可以使用Hive的JDBC连接字符串,例如"jdbc:hive2://localhost:10000/default"。这样就可以成功将Kettle的数据导入Hive了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [通过kettle关系型数据库中表导入hive](https://blog.csdn.net/shenzhibiao/article/details/99205692)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [使用kettle同步数据到hive](https://blog.csdn.net/sxjxrxm/article/details/94573127)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值