Flink集成Seatunnel

安装包下载

相关包的下载地址

Apache SeaTunnel | Apache SeaTunnel

Apache Flink: Downloads

解压(注意下载scala_2.11)

 tar -zxvf flink-1.13.6-bin-scala_2.11.tgz -C ../module/

Yarn模式部署

环境准备

sudo vi /etc/profile.d/my_env.sh

修改配置如下

HADOOP_HOME=/home/bigdata/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HADOOP_CLASSPATH=`hadoop classpath`

#FLINK_HOME
export FLINK_HOME=/home/bigdata/module/flink-1.13.6
export PATH=$PATH:$FLINK_HOME/bin
source /etc/profile.d/my_env.sh

 可选配置:更具自己的需求配置启动的资源分配

 vim flink-conf.yaml
jobmanager.memory.process.size: 1600m
taskmanager.memory.process.size: 1728m
taskmanager.numberOfTaskSlots: 8
parallelism.default: 1

提交一个Demo测试是否能够提交到集群

hadoop jar /home/bigdata/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount  -Dmapreduce.job.queuename=low  /testdata /testoutdata/tentt

常见异常 

运行的时候一定要确定找的namenode的地址是活动的状态,如果是staby的话就会出现连接异常的情况。 

连接拒绝异常原因

1.nameNode地址不是active的namenode。

2.指定的输出文件夹存在。

./bin/flink run -m yarn-cluster \
-yjm 1024 \
-ytm 1024 \
-yqu high \
./examples/batch/WordCount.jar \
-input hdfs://master1:8020/testdata \
-output hdfs://master1:8020/testoutdata/finktest

上面是flink的workcount ,下面是包冲突异常(flink和hadoop的包冲突异常)

./bin/start-seatunnel-flink-connector-v2.sh \
-m yarn-cluster \
-yjm 2024 \
-ytm 4096 \
-ynm testseatunnel \
-yqu high \
 --config ./config/seatunnel.streaming.conf.template
 yarn logs -applicationId application_1670892172838_0129

上面如果直接提交到yarn的话,那么会有guava包冲突的异常,如下

 解决办法,把hadoop的包复制到flink的lib里面,flink就会自动加载对应的高版本的guava包

cp /home/bigdata/module/hadoop-3.1.3/share/hadoop/hdfs/lib/guava-27.0-jre.jar .

特殊方法编译flink源码

flink SQL报错java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLj_51CTO博客_flink sql报错窗口

 第二种方法启动flink的yarn-seassion模式

./yarn-session.sh -nm test -qu default

然后提交到flink指定集群中

./bin/start-seatunnel-flink-connector-v2.sh \
> -m node3:46630\
>  --config ./config/seatunnel.streaming.conf.template
-bash: ./bin/start-seatunnel-flink-connector-v2.sh: No such file or directory

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
### 回答1: Flink可以通过Flink Metrics API将指标数据导出到第三方系统,例如Prometheus和Graphite。为了收集这些指标数据并将其导入到这些系统中,可以使用Flink集成的Metrics Agent。Metrics Agent是一个独立的进程,可以在Flink任务运行时收集指标数据,并将其发送到指定的系统中。 要启用Metrics Agent,需要在flink-conf.yaml配置文件中设置以下属性: ``` metrics.reporter.<name>.class: org.apache.flink.metrics.reporter.MetricAgentReporter metrics.reporter.<name>.port: <agent-port> metrics.reporter.<name>.interval: <reporting-interval> ``` 其中,`<name>`是报告器的名称,`<agent-port>`是Metrics Agent的端口号,`<reporting-interval>`是指标数据的报告间隔时间。启用Metrics Agent后,可以使用以下命令在Metrics Agent的Web界面上查看指标数据: ``` curl http://<agent-host>:<agent-port>/metrics ``` 其中,`<agent-host>`是Metrics Agent的主机名或IP地址。 ### 回答2: Flink集成Agent是指在Apache Flink分布式流处理引擎中加入Agent进行监控和管理。Agent是一种轻量级的代理程序,可以提供对Flink应用程序的实时监控、错误处理和管理功能。 在Flink集成Agent后,可以通过Agent对Flink应用程序进行监控。Agent会收集和汇总Flink应用程序的运行状态、性能指标以及错误日志等信息,并将其展示在监控界面上供用户查看。这样,用户可以实时了解Flink应用程序的运行情况,及时发现和解决问题,提高应用程序的稳定性和性能。 此外,Agent还可以进行错误处理。当Flink应用程序发生错误或异常时,Agent可以及时通知相关人员,同时记录错误日志以便后续分析。这有助于快速定位和解决问题,减少应用程序运行中断的时间,提高系统的可用性和稳定性。 Agent还可以进行管理操作。通过Agent,可以对Flink应用程序进行启动、停止、重启等管理操作,而不需要直接登录到Flink集群的服务器上进行操作。这样,可以简化操作流程,降低管理成本,并保证操作的安全性。 总之,Flink集成Agent可以使用户更加方便地监控和管理Flink应用程序,提高应用程序的可靠性和性能,同时降低管理成本和操作复杂度。 ### 回答3: Flink集成Agent是指在Flink应用程序中使用Agent来监控和收集应用程序的性能指标和数据。Agent是一种轻量级的软件组件,可以在运行时与应用程序进行交互,并提供实时的性能监控和数据收集功能。 集成Agent可以帮助我们实时监控和分析Flink应用程序的运行状况和性能表现。Agent可以收集和监控各种指标,如CPU使用率、内存使用情况、网络传输速度等,并将这些数据汇总到统一的监控平台中进行展示和分析。通过监控和收集这些指标,我们可以及时发现应用程序中的性能瓶颈和问题,并采取相应的优化措施。 另外,集成Agent还可以帮助我们进行应用的故障诊断和调试。Agent可以记录和收集应用程序运行过程中的日志和错误信息,以便我们追溯问题的根源和解决方法。通过分析这些收集到的数据,我们可以快速定位和修复应用程序中的bug和异常。 总的来说,将Agent集成Flink应用程序中,可以提供实时的性能监控和数据收集功能,帮助我们及时发现和解决应用程序中的性能问题和异常情况。这将有助于提高应用程序的稳定性和性能表现,并提供更好的用户体验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

工作变成艺术

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值