kettle使用小例子

原创 2015年07月09日 15:20:36

最近在做ms sql数据库移植oracle上的工作,之前用的ms sql自己的导出功能,今天经理说了句水壶,上网查了好久才知道说的是kettle!

废话少说上图:

kettle下载地址: http://community.pentaho.com/projects/data-integration/

我下载的 Data Integration 5.4.0 Stable

值得一说是需要事先安装jdk

解压压缩包,得到如下文件

运行Spoon.bat

右键转换--》新建,如下页面

点开“输入”项,选择“表输入”

双击,点击新建,如下表

此处需要注意的是:ms sql的驱动jar包

测试通过之后,点击“确认”按钮,返回前一个页面,点击“获取sql查询语句”

选择想要导入的表

至此输入表建立完成,下面来建立输出表

选着输出下面的,输出表

双击,然后点击新建按钮,

建好之后(此处需要导入数据库驱动jar包),如下:

然后按住shift从表输入拉一条线到表输出,如下


然后双击“表输出”

目标表名可以自己起名(一般为要导的数据库没有创建表),也可以选择(要导的数据库已经建好表,导入数据)

选择数据库字段,然后点击获取字段


然后点击“SQL”按钮

点击执行(这部为创建数据表,如果数据表在要导入的库里已存在,可以省略)

最后点击“三角”,执行数据的导入操作!

版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

数据库迁移——kettle实战(2)

需求:把数据从旧表导入到新表(从oracle到oracle)

kettle步骤概览(5)--清洗校验

 前边介绍了34个子程序 关于清洗和校验的子系统包含四个: 清洗、错误处理、审计维度、排重    Kettle里没有单一的数据清洗步骤,但有很多的步骤组合起来可以完成数据清洗...

数据清洗工具kettle

kettle简介:          kettle是pentho的一个组件,用来做数据清洗的,现在已经支持很多数据库以及文件格式,也包括大数据hdfs等。有图形界面,也可以在linux下去调用,用起...

从官方例子入手 (详解排序、分组)——kettle实战(3)

kettle 排序 分组 一 生成记录 二 生成随机数据 三 排序记录 四 排序合并 五 分组 六 组序号 七 替换 八 写入txt

大数据Kettle数据清洗与定时任务开发

今天整点大数据应用的开发。做一个定时校验的Job ​Kettle自行百度,做ETL的。下面就开始吧。 首先kettle,开发系统时间的转换,这步很关键的,兄弟: ​具体代码也贴出来,这个是设置环境变量...

ETL工具kettle与java结合使用程序生成一个简单的转化文件

最近项目中使用ETL工具kettle(4.+)对数据库的数据进行清洗,使用工具spoon来使用一些图形化的操作比较简单,抽空研究了下用使用kettle的一些jar包,把kettle结合到java(we...

Kettle连接Hadoop与Hive

Kettle连接Hadoop与Hive

ETL利器Kettle实战应用解析系列一【Kettle使用介绍】

转:http://www.cnblogs.com/zhangchenliang/p/4179775.html 一、ETL利器Kettle实战应用解析系列一【Kettle使用介绍】 二、ETL利...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)