炼数成金深入BI - Kettle 篇

课程介绍
     ETL (Extract,Transformation,Load)工具是构建数据仓库、进行数据整合工作所必须使用的工具。目前市面有多种商业 ETL 工具,如Informatica,Datastage等。目前市场上开源且实用的 ETL 工具比较少,Kettle 就是这不多的开源 ETL 工具之一。 本课程将主要讲解开源 ETL 工具 Kettle 的基本使用和二次开发方法,并结合实际项目案例,讲解 Kettle 如何在实际中应用,以及应用中可能会出现的问题。针对目前大数据的应用情况,本课程也将结合大数据,讲述 Kettle 如何支持 Hadoop、HBase、MongoDB、MapReduce 等大数据技术。除了Kettle 的使用,在本课程的后几个课时,将讲述 Kettle 的二次开发: 包括 Kettle 代码阅读指导, Kettle API 的说明以及使用方法, Kettle 插件的开发方法。

课程内容
第一周:ETL 的概念,Kettle 的概念、功能、操作
第二周:Kettle 资源库、日志、运行方式
第三周:输入步骤(表输入、文本文件输入、XML 文件输入...)
第四周:输出步骤(表输出、更新、删除、文本文件输出、XML文件输出...)
第五周:转换步骤(过滤、字符串处理、拆分字段、计算器...)
第六周:转换步骤(字段选择、排序、增加校验列、去除重复记录...)
第七周:应用步骤、流程步骤(处理文件、执行程序、发送邮件、空操作、阻塞步骤、中止等...)
第八周:查询步骤、连接步骤(数据库查询、流查询、合并记录、记录集连接、笛卡尔...)
第九周:脚本步骤(Javascript,Java Class、正则表达式...)
第十周:作业项(拷贝、移动、ftp、sftp…)
第十一周:Kettle 的参数和变量、Kettle 集群
第十二周:Kettle 代码编译、代码结构、应用集成、各种配置文件
第十三周:插件开发 - 步骤、作业项 
第十四周:作业设计技巧、错误处理、调试转换、循环和分支
第十五周:大数据插件(Hadoop 文件输入/输出,HBase输入/输出,MapReduce输入/输出,MongoDB输入/输出)

目标人群
1. ETL 工程师,Java 开发工程师,
2. 经常要做数据处理的 DBA
3. 有一定数据库基础 和 Java 基础的学生。

课程预期目标  
1. 理解 Kettle 软件的基本功能。
2. 能使用 Kettle 完成基本的数据处理工作。
3. 了解 Kettle 软件的一些高级功能
4. 对有Java 开发经验的同学,对 Kettle 代码结构有一定了解,能开发一些 Java 的基本插件。
下载地址:http://feixueteam.net/thread-363-1-1.html
展开阅读全文

没有更多推荐了,返回首页