SeaTunnel安装及测试

一. 简介

架构于Spark和Flink之上的分布式的支持海量数据实时同步的高性能分布式数据集成平台

官网:http://seatunnel.incubator.apache.org/

Gitee:https://gitee.com/seatunnel/incubator-seatunnel

日常海量数据同步中常见问题:

1.缺乏统一的数据集成平台:
在类似SeaTunnel数据集成平台出来之前,开发者使用的是 Datax+Azkaban 分别作为数据采集的组件和调度执行的组件,使用 Git 作为代码管理;一个熟手配置一个数据集成任务大约通过 7 步:编辑,Commit,Push,打包,上传,页面操作,数据校验等, 一个任务的开发最起码需要 30~60 分钟,还必须保证这中间不能被打扰,没有出现异常情况,十分麻烦。

2.数据孤岛现象(eg:ClickHouse):
在这里插入图片描述

3.数据丢失与重复
4.任务堆积与延迟
5.吞吐量低
6.应用到生产环境周期长
7.缺少应用运行状态监控

特点:

低代码开发,易用性高,易维护
实时流式处理
离线多源数据分析
高性能、海量数据处理能力
模块化和插件化,易于扩展

支持的插件:

Input:File,Hdfs,Kafka,S3,Socket及自行开发的plugin

Filter:SQL,K-V,Json,Add,Drop,Split,Table及自行开发的plugin

Output:ES,File,Hdfs,Kafka,Mysql,S3,JDBC,Stdout及自行开发的plugin

插件支持情况:

Spark插件
在这里插入图片描述
在这里插入图片描述
Flink插件:
在这里插入图片描述
在这里插入图片描述
SeaTunnel官网暂不支持Doris,StarRocks作为数据Source端,若有具体业务需求可能需要具体开发;
Doris,StarRocks作为Sink端,在数据格式/质量上基本没有问题,只是不同的插件时间上有差异

日常使用:

会被用来做出仓入仓工具;

编辑配置文件,然后SeaTunnel将之转换为具体的Spark或Flink任务
在这里插入图片描述

竞品比较:

Spark是否支持	        √	     ×	      √	    ×
Flink是支持否	        √	     √	      √	     ×

参考文章
SeaTunnel在oppo特征平台的集成实践

升级OLAP平台,SeaTunnel在唯品会的实践

二. 基本原理

两个启动脚本:

提交spark任务用 start-seatunnel-spark.sh
提交flink任务则用 start-seatunnel-flink.sh

SeaTunnel配置文件应包含四部分配置组件:
env{} → source{} → transform{} → sink{}

source,transform,sink这三部分可以看做一个pipeline。

在Source和Sink数据同构时,如果业务上也不需要对数据进行转换,那么transform中的内容可以为空,反之transform具体需根据业务情况来定。

env块:

env块中可以直接写spark或flink支持的配置项。比如引擎选择,并行度,检查点间隔时间,检查点hdfs路径等。在SeaTunnel源码的ConfigKeyName类中,声明了env块中所有可用的key。
在这里插入图片描述

source块:

用来声明数据源,可以声明多个连接器

source {

      hdfs{ ... }

      elasticsearch { .... }

      jdbc { .... }

}

transform块:

可能根据具体业务进一步处理数据,因此提供转换模块;当然也可以直接从Source到Sink。

可以同时声明多个转换插件:添加校验、转换、日期、删除、Grok、Json、KV、大/小写、删除、重命名、重分区、替换、样本、拆分、Sql、表、截断、Unid,自主开发的过滤器插件等
在这里插入图片描述

sink块:

定义如何以及在何处写入数据,将数据从一个位置同步到另一个位置
在这里插入图片描述

小结:

在这里插入图片描述

三.SeaTunnel本地环境搭建

基础:

Centos	7.6
JDK	8
Hadoop	2.9.1
ZooKeeper	3.6.3
Hive	3.1.2
ClickHouse	21.7.3.14-2
Hbase	3.2.2
Spark	2.4.8
Flink	1.13.5
SeaTunnel	2.1.3

安装:

#下载解压

sudo wget  "apache-seatunnel-incubating-2.1.3-bin.tar.gz" 

sudo tar -zxvf  apache-seatunnel-incubating-2.1.3-bin.tar.gz


#配置环境变量

sudo vim  /etc/profile

export SEATUNNEL_HOME=/usr/local/apache-seatunnel-incubating-2.1.3

export PATH=$PATH:${SEATUNNEL_HOME}/bin


#环境变量生效

source  /etc/profile

测试:

从Hive中抽数插入到CK中的配置,数据源是Hive的一张表,通过SeaTunnel插件根据id字段进行分片插入CK集群不同分片


#创建测试文件
vim  /usr/local/apache-seatunnel-incubating-2.1.3/config/hive-console.conf


#配置Spark参数
spark {  spark.sql.catalogImplementation = "hive"
  spark.app.name = "hive2clickhouse"
  spark.executor.instances = 30
  spark.executor.cores = 1 
  spark.executor.memory = "2g"
  spark.ui.port = 13000
}


input {
    hive {
        pre_sql = "select id,name,create_time from table"
        table_name = "table_tmp"
    }
}


filter {
    convert {
        source_field = "data_source"
        new_type = "UInt8"
    }

    org.interestinglab.waterdrop.filter.Slice {
        source_table_name = "table_tmp"
        source_field = "id"
        slice_num = 2
        slice_code = 0
        result_table_name = "table_8123"
    }
    org.interestinglab.waterdrop.filter.Slice {
        source_table_name = "table_tmp"
        source_field = "id"
        slice_num = 2
        slice_code = 1
        result_table_name = "table_8124"
    }
}


output {
    clickhouse {
        source_table_name="table_8123"
        host = "ip1:8123"
        database = "db_name"
        username="username"
        password="pwd"
        table = "model_score_local"
        fields = ["id","name","create_time"]
            clickhouse.socket_timeout = 50000
            retry_codes = [209, 210]
            retry = 3
            bulk_size = 500000
    }
    clickhouse {
        source_table_name="table_8124"
        host = "ip2:8123"
        database = "db_name"
        username="username"
        password="pwd"
        table = "model_score_local"
        fields = ["id","name","create_time"]
            clickhouse.socket_timeout = 50000
            retry_codes = [209, 210]
            retry = 3
            bulk_size = 500000
    }
}


#启动测试
/bin/start-waterdrop.sh --master local --deploy-mode client --config/hive-console.conf

四. 应用案例

Hive数据导入StarRocks

#创建文件任务
vim config/text01.conf

#配置内容
env {
   spark.app.name = "ads_product_sale_d"
   spark.executor.instances = 1
   spark.dynamicAllocation.maxExecutors = 20
   spark.executor.cores = 1
   spark.executor.memory = "8g"
   spark.sql.catalogImplementation = "hive"
   spark.sql.hive.verifyPartitionPath = "true"
  }

source  {
       hive {
        pre_sql = "select platform_id,cat_id from dws.dws_prd_product_detail_d where  day_id ='2022-12- 14‘ "
        result_table_name = "ads_product_sale_d"
       }
  }

transform {
   sql {
    sql = "select platform_id,cat_id from ads_product_sale_d",
    table_name = "ads_product_sale_d"
   } 

}

  sink {
      Doris {
          fenodes="10.4.102.46:8030"
          database="example_db"
          table="ads_product_sale_d"
          user="root"
          password=""
          batch_size=10000
          doris.column_separator="\t"
          doris.columns="platform_id,cat_id"
      }          
  }


#启动任务
bin/start-seatunnel-flink.sh --config config/text01.conf  -i age=18

五. 发展前景——企业级服务化之路

基于 SeaTunnel 实现了可视化的数据集成服务,我相信服务化必然,一定,100%是SeaTunnel未来的不可缺少的一部分。

核心目标:
脚本管控:让用户通过 WebUI,以参数的形式配置任务信息而非脚本的方式来表达自己的业务需求,这样无论是对于非专业人员还是开发人员都会节省很大精力
作业及实例管理:任务触发,查看日志记录,重跑,Kill等
整体架构设计:
在这里插入图片描述

**管控:**对数据源、用户、权限、脚本、作业、实例的管控,任何在 WebUi 上看到的内容都会被管控
管理能力:针对于数据源的增删改查以及连接性测试,数据源的映射、数据探查等的能力;此外,页面上每个能看见的页面、菜单、按钮、数据,资源管理、自定义 connector、trasnform 管理、项目空间等都应该纳入管控

开发能力:基本上就是针对的脚本的增删改查(保存、执行、停止、测试、发布、基本参数展示、调度参数配置、告警参数调整、脚本内容、数据源、transform、并发等)

运维能力:任务的不同时期所要求的内容也不一样,作业运维包括手动触发,暂停等;实例运维则是重跑,Kill,查看日志记录等

调度:
根据配置的不同,负责将任务丢至不同的调度系统中进行调度与执行;上层的作业和实例的管控也依赖于具体的调度系统;

crontabl-local:我们的 SeaTunnel 自成体系,自身就提供了简单的定时调度能力,用户只需要修改下配置,即可快速上手,完成定时数据集成任务的配置与发布

执行(task-wrapper):
1.考虑到仅靠 SeaTunnel 原生的能力是不够的,所以分为两部分: pre-task 和 post-task,与 SeaTunnel 的执行引擎进行组装,变成真正的执行内容

2.完整独立的执行脚本

SeaTunnel WebUi整体项目开发进度
参考文章:
SeaTunnel企业化服务之路

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
为了安装Apache Seatunnel,您可以按照以下步骤进行操作: 1. 首先,您需要下载Apache Seatunnel的二进制文件。您可以在中找到下载链接。 2. 下载完成后,使用以下命令解压文件: ``` sudo tar -zxvf apache-seatunnel-incubating-2.1.3-bin.tar.gz ``` 3. 接下来,您需要配置环境变量。打开`/etc/profile`文件: ``` sudo vim /etc/profile ``` 4. 在文件末尾添加以下内容,并保存文件: ``` export SEATUNNEL_HOME=/usr/local/apache-seatunnel-incubating-2.1.3 export PATH=$PATH:${SEATUNNEL_HOME}/bin ``` 5. 让环境变量生效: ``` source /etc/profile ``` 现在,您已成功安装了Apache Seatunnel。您可以使用`start-seatunnel-spark.sh`命令提交Spark任务,或使用`start-seatunnel-flink.sh`命令提交Flink任务。 : https://join.slack.com/t/apacheseatunnel/shared_invite/zt-1kcxzyrxz-lKcF3BAyzHEmpcc4OSaCjQ : ``` #下载解压 sudo wget "apache-seatunnel-incubating-2.1.3-bin.tar.gz" sudo tar -zxvf apache-seatunnel-incubating-2.1.3-bin.tar.gz #配置环境变量 sudo vim /etc/profile export SEATUNNEL_HOME=/usr/local/apache-seatunnel-incubating-2.1.3 export PATH=$PATH:${SEATUNNEL_HOME}/bin #环境变量生效 source /etc/profile ``` : 提交Spark任务用`start-seatunnel-spark.sh`,提交Flink任务则用`start-seatunnel-flink.sh`。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [一文搞定 Apache SeaTunnel 2.3.1 全流程部署使用](https://blog.csdn.net/weixin_54625990/article/details/131099059)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [SeaTunnel安装测试](https://blog.csdn.net/dwjlyl/article/details/128250253)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小大数据

你的打赏是我活下去的动力哟~~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值