Flink1.15源码阅读flink-clients——提交作业程序入口调试

Flink启动脚本

在flink的bin目录下找到一个flink脚本,使用vim命令打开如下内容

#!/usr/bin/env bash
target="$0"
# For the case, the executable has been directly symlinked, figure out
# the correct bin path by following its symlink up to an upper bound.
# Note: we can't use the readlink utility here if we want to be POSIX
# compatible.
iteration=0
while [ -L "$target" ]; do
    if [ "$iteration" -gt 100 ]; then
        echo "Cannot resolve path: You have a cyclic symlink in $target."
        break
    fi
    ls=`ls -ld -- "$target"`
    target=`expr "$ls" : '.* -> \(.*\)$'`
    iteration=$((iteration + 1))
done

# Convert relative path to absolute path
bin=`dirname "$target"`

# get flink config
. "$bin"/config.sh

if [ "$FLINK_IDENT_STRING" = "" ]; then
        FLINK_IDENT_STRING="$USER"
fi

CC_CLASSPATH=`constructFlinkClassPath`

# 以上内容忽略
# 日志输出文件名
log=$FLINK_LOG_DIR/flink-$FLINK_IDENT_STRING-client-$HOSTNAME.log
# 指定日志配置文件
log_setting=(-Dlog.file="$log" -Dlog4j.configuration=file:"$FLINK_CONF_DIR"/log4j-cli.properties -Dlog4j.configurationFile=file:"$FLINK_CONF_DIR"/log4j-cli.properties -Dlogback.configurationFile=file:"$FLINK_CONF_DIR"/logback.xml)

# 指定flink环境的java参数
FLINK_ENV_JAVA_OPTS="${FLINK_ENV_JAVA_OPTS} ${FLINK_ENV_JAVA_OPTS_CLI}"

# Add HADOOP_CLASSPATH to allow the usage of Hadoop file systems
# ${JAVA_RUN}引用的是java/bin/java
# 最终指定的类是CliFrontend 以及后面跟的数组参数"$@"
exec "${JAVA_RUN}" $JVM_ARGS $FLINK_ENV_JAVA_OPTS "${log_setting[@]}" -classpath "`manglePathList "$CC_CLASSPATH:$INTERNAL_HADOOP_CLASSPATHS"`" org.apache.flink.client.cli.CliFrontend "$@"

CliFrontend(客户端启动类)

从上面客户端启动脚本,紧接着去代码中查看org.apache.flink.client.cli.CliFrontend 这个类。
如果没有编译成功,请自行操作,也可参考小编之前写过的两篇文章(地址就不贴了)。
在这里插入图片描述

代码调试

这一节有参考博客
根据上面截图,提交flink app程序入口找到了,我们先来调试下,ide基于idea version2021.1

直接debug main方法,如下图所示
在这里插入图片描述

退出code为1,具体是下面的错误

Exception in thread "main" java.lang.RuntimeException: The configuration directory was not specified. Please specify the directory containing the configuration file through the 'FLINK_CONF_DIR' environment variable.

说在环境变量中,没有找到 FLINK_CONF_DIR 配置,也就是 flink 配置文件没有找到,就是那个 flink-conf.yml 文件

这个文件其实是在发行目录下:

在这里插入图片描述
然后配置一个
在这里插入图片描述

FLINK_CONF_DIR=C:\Users\18380\myself\coder\flink\flink-dist\src\main\resources

再运行一遍,报错如下
在这里插入图片描述
原来是因为,我们之前在运行命令的时候,后面还有一坨参数,现在什么参数都没有往 main 方法传,当然报错了。

这里我们还需要一个 WordCount.jar 包,源码都有了,直接从源码打包一个出来,就是这么的任性了。

直接把 Flink : Examples : Streaming 模块打个包
在这里插入图片描述
打完包之后,在 target 目录下,就会有一个 WordCount.jar 包了

在这里插入图片描述
填写传入参数
run C:\Users\18380\myself\coder\flink\flink-examples\flink-examples-streaming\target\WordCount.jar
一定要带上run哦,不然会有下面 提示信息

Valid actions are "run", "run-application", "list", "info", "savepoint", "stop", or "cancel".

在这里插入图片描述

然后再 Debug 看一下,应该会报一个错误,具体如下,这里是因为源码打包的时候缺少依赖,暂时不管,后面我会补上。
在这里插入图片描述
现在已经可以调试了,接下来开始逐步调试源码。

遇到的问题

虽然flink1.15官方所需的jdk版本是jdk1.11,但是现在flink-core源码里面还有部分代码使用了sun.misc.*,源码起初使用的jdk11,后来因为编译遇到sun.misc问题,又切换成了jdk1.8 ,等看到flink-core源码的时候,我会尝试着把那些引用sun.misc包的修改了。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

京河小蚁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值