一、DataX 简介(摘自 github.com/alibaba/Dat… 详细介绍 Quick StartSupport Data Channels 二、......
DataX
DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具 / 平台,实现包括 MySQL、Oracle、SqlServer、Postgre、HDFS、Hive、ADS、HBase、TableStore(OTS)、MaxCompute(ODPS)、DRDS 等各种异构数据源之间高效的数据同步功能。
Features
DataX 本身作为数据同步框架,将不同数据源的同步抽象为从源头数据源读取数据的 Reader 插件,以及向目标端写入数据的 Writer 插件,理论上 DataX 框架可以支持任意数据源类型的数据同步工作。同时 DataX 插件体系作为一套生态系统, 每接入一套新数据源该新加入的数据源即可实现和现有的数据源互通。
DataX 详细介绍
请参考:DataX-Introduction
Quick Start
Download DataX 下载地址
请点击:Quick Start
Support Data Channels
DataX 目前已经有了比较全面的插件体系,主流的 RDBMS 数据库、NOSQL、大数据计算系统都已经接入,目前支持数据如下图,
2.1 将 Hive 表导入 MySQL
1.将DataX下载后上传到服务器2.解压后使用自检脚本:python {YOUR_DATAX_HOME}/bin/datax.py {YOUR_DATAX_HOME}/job/job.json3.运行没有问题后根据模板和自己的需求创建your_job.json配置文件,这里以hive2mysql为例:(需要注意的是读hive表其实就是读hive存放在hdfs上的文件)
{ "job": { "setting": { "speed": { "channel": 3 } }, "content": [ { "reader": { "name": "hdfsreader", "parameter": { "path": "/apps/hive/warehouse/test_table/*", "defaultFS": "hdfs://192.168.10.101:8020", "column": [ { "index": 0, "type": "string" }, { "index": 1, "type": "long" } ], "fileType": "text", "encoding": "UTF-8", "fieldDelimiter": "" } }, "writer": { "name": "mysqlwriter", "parameter": { "writeMode": "insert", "username": "username", "password": "password", "column": [ "word", "cnt" ], "session": [ "set session sql_mode='ANSI'