Pentaho Data Integration(Kettle) 仓库的使用

接上篇Pentaho Data Integration(Kettle) 简单使用,现在我们来看看如何与Pentaho Business Analytics Server(BA Server)配合使用仓库功能。

连接BA Server

确保启动了BA Server,然后点击右上角connect按钮新建一个仓库连接:

确保填写正确的URL,然后点击finish:

再次选择右上角的仓库进行登录:

登录成功后的连接变成这样了:

之后便可以在仓库里面新建转换和作业,方法跟本地类似。

BA Server中执行

可以再BA Server中查看创建的转换和作业:

双击可以执行一个转换或作业:

显示执行成功。 还可以通过BA Server上传转换和作业文件,不过默认上传后的文件是隐藏起来的(可能是为了保护文件),可以按照如下操作显示隐藏文件:

然后就可以查看到刚上传的文件了。

BA Server设置定时任务

在网上看到许多人推荐的方法是使用cron任务,并配合kitchen.shpan.sh脚本使用,这是一种方法,但更好的方式是通过BA Server来完成,因为BA Server有更直观的定时任务创建与管理。 首先选中要定时执行的文件,然后点击Schedule:

填写名称,选择位置:

选择执行周期:

Finish,结束。

管理定时任务

这里可以管理我们新建的定时任务,包括修改、删除、暂停、过滤、刷新、立即执行等。功能是不是比命令更强大?

以上。

转载于:https://juejin.im/post/5a31d34df265da431523eaed

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
高清版(中文) 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》主要介绍如何使用开源ETL工具来完成数据整合工作。 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》介绍的PDI(Kettle)是一种开源的 ETL 解决方案,书中介绍了如何使用PDI来实现数据的剖析、清洗、校验、抽取、转换、加载等各类常见的ETL类工作。 除了ODS/DW类比较大型的应用外,Kettle 实际还可以为中小企业提供灵活的数据抽取和数据处理的功能。Kettle除了支持各种关系型数据库、HBase、MongoDB这样的NoSQL数据源外,它还支持、Access这类小型的数据源。并且通过插件扩展,Kettle 可以支持各类数据源。本书详细介绍了Kettle可以处理的数据源,而且详细介绍了如何使用Kettle抽取增量数据。 Kettle 的数据处理功能也很强大,除了选择、过滤、分组、连接、排序这些常用的功能外,Kettle 里的Java表达式、正则表达式、Java脚本、Java类等功能都非常灵活而强大,都非常适合于各种数据处理功能。本书也使用了一些篇幅介绍Kettle这些灵活的数据处理功能。 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》后面章节介绍了如何在 Kettle 上开发插件,如何使用Kettle处理实时数据流,以及如何在Amazon AWS上运行Kettle 等一些高级主题。 除了介绍PDI(Kettle)工具的使用和功能,本书还结合Kimball博士的数据仓库和ETL子系统的理论,从实践的角度介绍数据仓库的模型设计、数据仓库的构建方法,以及如何使用 PDI实现Kimball博士提出的34种ETL子系统。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值