DataX 阿里离线数据同步工具

DataX 阿里离线数据同步工具

下载地址: datax下载地址

官方指南:Quick Start

介绍

DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,
实现包括 MySQL、SQL Server、Oracle、PostgreSQL、HDFS、Hive、HBase、OTS、ODPS 等各种异构数据源之间高效的数据同步功能。

datax其实就像Flume一样~,它们两个的架构都一样。总体一个思想我通过我的自定义输入读取数据,然后统一格式,在通过自定义输出输入数据。一个完美的中间件,通过我们自定义的格式达到不同数据源之间的数据同步。

相对于Flume,datax的上手难度和用户体验以及效率都大大提升,这是最主要的。

datax的架构图

在这里插入图片描述

从上图,我们能简单的了解一下DataX的运行逻辑:

MySQL的数据经过我们的MysqlReader(前面提到的自定义输入,采集数据),格式化成中间格式,然后暂存在FrameWork(缓冲,流控,并发,数据转换等核心技术区)上,HDFSWriter(自定义输出,写出数据)从FrameWork那里拉数据然后写到输出源HDFS上,完成了数据的同步。

核心架构

在这里插入图片描述

这张图就能更清晰的理解DataX的运行逻辑了:(前提要知道:DataX把一次同步的任务叫做一个Job)

一个Job会被切分(如果有设置的话)成若干个Task,多个Task并行执行。根据Task的数量,重组成一个个TaskGroup。每一个TaskGroup负责以一定的并发运行完毕分配好的所有Task,默认单个任务组的并发数量为5。

Flume架构图

在这里插入图片描述

DataX的安装

以下部分直接抄的DataX项目的Quick Start

  • 工具部署

    • 方法一、直接下载DataX工具包:DataX下载地址

      下载后解压至本地某个目录,进入bin目录,即可运行同步作业:

      $ cd  {YOUR_DATAX_HOME}/bin
      $ python datax.py {YOUR_JOB.json}
      

      自检脚本: python {YOUR_DATAX_HOME}/bin/datax.py {YOUR_DATAX_HOME}/job/job.json

    • 方法二、下载DataX源码,自己编译:DataX源码

      (1)、下载DataX源码:

      $ git clone git@github.com:alibaba/DataX.git
      

      (2)、通过maven打包:

      $ cd  {DataX_source_code_home}
      $ mvn -U clean package assembly:assembly -Dmaven.test.skip=true
      

      打包成功,日志显示如下:

      [INFO] BUILD SUCCESS
      [INFO] -----------------------------------------------------------------
      [INFO] Total time: 08:12 min
      [INFO] Finished at: 2015-12-13T16:26:48+08:00
      [INFO] Final Memory: 133M/960M
      [INFO] -----------------------------------------------------------------
      

      打包成功后的DataX包位于 {DataX_source_code_home}/target/datax/datax/ ,结构如下:

      $ cd  {DataX_source_code_home}
      $ ls ./target/datax/datax/
      bin		conf		job		lib		log		log_perf	plugin		script		tmp
      

      把最后这个datax目录cp到任意你想放的地方就能用了,不需要任何配置。

DataX使用

说datax好用,其实就是它这种写json同步数据的方式很方便
我们只需要按照它的规范(还是中文的),描述出我们的输入源和输出源就能很方便达到数据同步的效果。
插件体系(里面是目前支持的一些输入输出插件)

HDFS数据同步到Mysql

{
    "job": {
        "setting": {
            "speed": {
                "channel": 3 //并发数 
            }
        },
        "content": [
            {
                "reader": {
                    "name": "hdfsreader",  //输入端事HDFS,所以用hdfsreader
                    "parameter": {
                        "path": "/user/hive/warehouse/zzy.db/l1/*",  //采集目录
                        "defaultFS": "hdfs://hadoop001:9000",  //HDFS地址
                        "column": [
                            {
                                "index": 0,        //如果全取   "column":["*"],
                                "type": "string"
                            },
                            {
                                "index": 1,
                                "type": "string"
                            },
                            {
                                "index": 2,
                                "type": "long"
                            }
                        ],
                        "fileType": "text",   //文件类型
                        "encoding": "UTF-8",  //编码格式
                        "fieldDelimiter": ","  //字段切分符号
                    }
                },
                "writer": {    
                    "name": "mysqlwriter",   //输出端是mysql,所以用mysqlwriter
                    "parameter": {
                        "writeMode": "insert",   //写入数据库时的方式。
                        "username": "root",   //连接信息
                        "password": "123456",  //连接信息
                        "column": [
                            "id",
                            "login",
                            "cnt"
                        ],
                        "session": [
                            "set session sql_mode='ANSI'" //DataX在获取Mysql连接时,执行session指定的SQL语句,修改当前connection session属性
                        ],
                        "preSql": [
                            "truncate table l1"   //在执行写之前,可以先执行这里的sql语句  还有postSql,对应执行了写操作以后的sql
                        ],
                        "connection": [
                            {
                                "jdbcUrl": "jdbc:mysql://127.0.0.1:3306/learn?useUnicode=true&characterEncoding=utf8",  //连接信息
                                "table": [
                                    "l1" //对那张表操作,可以是多个表
                                ]
                            }
                        ]
                    }
                }
            }
        ]
    }
}
python ./bin/datax.py ./job/hdfs2mysql.json   #调用方式(当前在datax安装目录下)

Mysql写入Hive

{
    "job": {
        "setting": {
            "speed": {
                "channel": 1
            },
            "errorLimit": {
                "record": 0,
                "percentage": 0.02
            }
        },
        "content": [
            {
                "reader": {
                    "name": "mysqlreader",
                    "parameter": {
                        "username": "root",
                        "password": "123456",
                        "column": [
                            "id",
                            "login",
                            "cnt"
                        ],
                        "connection": [
                            {
                                "table": [
                                    "l1"
                                ],
                                "jdbcUrl": [
                                    "jdbc:mysql://127.0.0.1:3306/learn"
                                ]
                            }
                        ]
                    }
                },
                "writer": {
                    "name": "hdfswriter",
                    "parameter": {
                        "defaultFS": "hdfs://hadoop001:9000",
                        "fileType": "text",
                        "path": "/user/hive/warehouse/zzy.db/l1",
                        "fileName": "mysql_table_l1",
                        "column": [
                            {
                                "name": "id",
                                "type": "string"
                            },
                            {
                                "name": "login",
                                "type": "string"
                            },
                            {
                                "name": "cnt",
                                "type": "int"  //唯一要区分的就是这里,这个类型是写到hive中的数据类型,而不是dataX的数据类型
                            }
                        ],
                        "writeMode": "append",
                        "fieldDelimiter": ","
                    }
                }
            }
        ]
    }
}
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
DataX Web是在DataX之上开发的分布式数据同步工具,提供简单易用的操作界面,降低用户使用DataX的学习成本,缩短任务配置时间,避免配置过程中出错。用户可通过页面选择数据源即可创建数据同步任务,RDBMS数据源可批量创建数据同步任务,支持实时查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl-job可根据时间、自增主键增量同步数据。 任务"执行器"支持集群部署,支持执行器多节点路由策略选择,支持超时控制、失败重试、失败告警、任务依赖,执行器CPU.内存.负载的监控等等。后续还将提供更多的数据源支持、数据转换UDF、表结构同步数据同步血缘等更为复杂的业务场景。 DataX Web安装环境: Language: Java 8(jdk版本建议1.8.201以上) Python2.7(支持Python3需要修改替换datax/bin下面的三个python文件,替换文件在doc/datax-web/datax-python3下) Environment: MacOS, Windows,Linux Database: Mysql5.7 DataX Web功能特点: 1、通过Web构建DataX Json; 2、DataX Json保存在数据库中,方便任务的迁移,管理; 3、Web实时查看抽取日志,类似Jenkins的日志控制台输出功能; 4、DataX运行记录展示,可页面操作停止DataX作业; 5、支持DataX定时任务,支持动态修改任务状态、启动/停止任务,以及终止运行中任务,即时生效; 6、调度采用中心式设计,支持集群部署; 7、任务分布式执行,任务"执行器"支持集群部署; 8、执行器会周期性自动注册任务, 调度中心将会自动发现注册的任务并触发执行; 9、路由策略:执行器集群部署时提供丰富的路由策略,包括:第一个、最后一个、轮询、随机、一致性HASH、最不经常使用、最近最久未使用、故障转移、忙碌转移等; 10、阻塞处理策略:调度过于密集执行器来不及处理时的处理策略,策略包括:单机串行(默认)、丢弃后续调度、覆盖之前调度; 11、任务超时控制:支持自定义任务超时时间,任务运行超时将会主动中断任务; 12、任务失败重试:支持自定义任务失败重试次数,当任务失败时将会按照预设的失败重试次数主动进行重试; 13、任务失败告警;默认提供邮件方式失败告警,同时预留扩展接口,可方便的扩展短信、钉钉等告警方式; 14、用户管理:支持在线管理系统用户,存在管理员、普通用户两种角色; 15、任务依赖:支持配置子任务依赖,当父任务执行结束且执行成功后将会主动触发一次子任务的执行, 多个子任务用逗号分隔; 16、运行报表:支持实时查看运行数据,以及调度报表,如调度日期分布图,调度成功分布图等; 17、指定增量字段,配置定时任务自动获取每次的数据区间,任务失败重试,保证数据安全; 18、页面可配置DataX启动JVM参数; 19、数据源配置成功后添加手动测试功能; 20、可以对常用任务进行配置模板,在构建完JSON之后可选择关联模板创建任务; 21、jdbc添加hive数据源支持,可在构建JSON页面选择数据源生成column信息并简化配置; 22、优先通过环境变量获取DataX文件目录,集群部署时不用指定JSON及日志目录; 23、通过动态参数配置指定hive分区,也可以配合增量实现增量数据动态插入分区; 24、任务类型由原来DataX任务扩展到Shell任务、Python任务、PowerShell任务; 25、添加HBase数据源支持,JSON构建可通过HBase数据源获取hbaseConfig,column; 26、添加MongoDB数据源支持,用户仅需要选择collectionName即可完成json构建; 27、添加执行器CPU、内存、负载的监控页面; 28、添加24类插件DataX JSON配置样例 29、公共字段(创建时间,创建人,修改时间,修改者)插入或更新时自动填充 30、对swagger接口进行token验证 31、任务增加超时时间,对超时任务kill datax进程,可配合重试策略避免网络问题导致的datax卡死。 32、添加项目管理模块,可对任务分类管理; 33、对RDBMS数据源增加批量任务创建功能,选择数据源,表即可根据模板批量生成DataX同步任务; 34、JSON构建增加ClickHouse数据源支持; 35、执行器CPU.内存.负载的监控页面图形化; 36、RDBMS数据源增量抽取增加主键自增方式并优化页面参数配置; 37、更换MongoDB数据源连接方式,重构HBase数据源JSON构建模块; 38、脚本类型任务增加停止功能; 39、rdbms json构建增加postSql,并支持构建多个preSq

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值