flink学习(cancel以及整合springboot)

背景:

最近工作需要,刚好在研究flink,然后发现flink的资料百度少之又少,谷歌以及flink文档的说明也都不是很通俗,这里记录一下我在整合flink以及springboot的过程中问题比较麻烦的点。工作需求,我需要从springboot启动之后,根据redis里的配置进行动态创建任务,并且会根据redis的配置变化对任务进行一些重启的操作

实现

先讲一下,我是使用flink的StreamExecutionEnvironment.createRemoteEnvironment方式进行上传jar包,下面的流操作都跟具体业务场景一致即可

    /**
     * 创建任务,可创建多个,这里根据你的业务来建
     * @param url flink连接
     * @param port flink端口号
     * @param jarPath 上传的jar包这里需要传一个含有你业务逻辑的jar包,就是你在flink页去提交的包,里面的main可直接写个简单的启动flink方法,但是其他的类不可缺少,包路径你可以放在resources下
     * @throws Exception
     */
    private static void createJob1(String url,Integer port ,String jarPath) throws Exception{
        StreamExecutionEnvironment env = null;
        //如果没有地址,则用本地环境
        if(StringUtils.isNotEmty(url)){
            env = StreamExecutionEnvironment.createRemoteEnvironment(url,port,jarPath);
        }else{
            env = StreamExecutionEnvironment.getExecutionEnvironment();
        }
        myRedisSource = new MyRedisSource("flink");
        DataStreamSource<FlinkDataEntity> elementsSource = env.addSource(myRedisSource);
        elementsSource.addSink(new CustomSinkFunction());
        jobClient = env.executeAsync("t1");
        envMap.put("t1",jobClient);
    }

这里的createRemoteEnvironment相当于你在flink页面进行提交jar包的操作,但是这里要注意,jar包里的main方法可以只写个简单的flink程序(这里有个疑问搞不懂,为啥flink提供了这种连接远程环境的方式,但是必须要有个“假包”上传过去,实际假包里的代码好像并没有跑,都是跑的上面程序的代码)

    private static void main() throws Exception{
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        //这里随意,能通就行
        DataStreamSource<FlinkDataEntity> elementsSource = env.addSource(new MyRedisSource("flink_2"));
        elementsSource.addSink(new CustomSinkFunction());
        env.execute();
    }

关闭任务的话,需要保存一下env.executeAsync()的返回值,是一个JobClient对象,他提供了一个cancel的方法,可以对任务进行关闭

    JobClient jobClient = env.executeAsync();
    jobClient.cancel().get();

当然如果springboot关闭了这个对象就销毁了,那可以通过flink提供的RestClusterClient对象去操作,只要地址跟端口号即可,

        Configuration configuration = new Configuration();
        configuration.set(JobManagerOptions.ADDRESS,"flink地址");
        configuration.set(JobManagerOptions.PORT,8081);
        //这里的原理也是发起http请求,你也可以去页面拿url通过httpClient等工具请求,但是用flink自带的还是比较优雅
        RestClusterClient<StandaloneClusterId> restClusterClient = new RestClusterClient<>(configuration,StandaloneClusterId.getInstance());
        //任务ID,这里你在启动程序的时候可以通过restClusterClient.listJobs()去循环关闭,先结束任务,再启动新的任务,或者你把这个ID你自己存起来,下次重启关闭都可以,我是直接全部关闭再起
        JobID jobID = JobID.fromHexString("任务ID");
        CompletableFuture<Acknowledge> completableFuture = restClusterClient.cancel(jobID);
        //这里要注意,上面这样如果关闭的请求比较长,是不生效的,需要get一下,这里自己设置等待时间,这里我吃过亏,o(╥﹏╥)o,没get一直以为是flink这个接口出问题了,点进去看了一波源码才知道,这里他需要等待执行结果,如果执行时间不够就直接kill掉了
        completableFuture.get(1,TimeUnit.SECONDS);

其他逻辑懒得写了,springboot就没啥好写的了,直接初始化个springboot项目,启动之后就可以操作任务了,我是整了俩个项目,一个springboot启动的时候去操作flink的任务(包括流的逻辑),一个是需要上传的jar包,主要的实现逻辑的类都要有,main方法里可以写个简单的flink程序,希望能避免更多人踩坑


  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
回答: 当将FlinkSpring Boot项目整合时,可能会遇到一些问题。其中一些常见的问题包括依赖注入冲突、FlinkSpring Boot的哪一层使用、如何处理启动类、作用域的差异以及如何在Spring Boot的启动类中使用Bean。 关于依赖注入冲突的问题,有用户提到在Spring Boot中使用依赖注入时与Flink发生冲突。这可能是因为在Flink集群部署时,无法使用Spring的功能。在这种情况下,可以考虑使用Apache原生组件,如JDBC或DataStax Cassandra Core,而不是Spring的组件\[2\]。 关于FlinkSpring Boot的哪一层使用的问题,可以根据具体需求来决定。通常情况下,可以将Flink作为一个独立的模块,与Spring Boot项目并列。这样可以更好地管理Flink的配置和启动\[2\]。 关于处理启动类的问题,可以使用Spring Boot的ApplicationRunner接口。这个接口可以在Spring Boot项目启动后立即执行某些逻辑,比如加载配置文件、加载执行流、定时任务等。可以将需要在启动后立即执行的逻辑放在ApplicationRunner的实现类中\[3\]。 关于作用域的差异,Spring BootFlink有不同的作用域概念。在Spring Boot中,可以使用作用域注解(如@RequestScope、@SessionScope)来定义Bean的作用域。而在Flink中,可以使用Flink的作用域概念(如ExecutionEnvironment、StreamExecutionEnvironment)来管理作业的作用域。需要根据具体需求来选择合适的作用域\[4\]。 最后,关于在Spring Boot的启动类中使用Bean的问题,可以通过在启动类中使用@Autowired注解来注入Bean。这样可以在启动类中使用已经定义好的Bean\[1\]。 综上所述,当将FlinkSpring Boot项目整合时,需要注意依赖注入冲突、FlinkSpring Boot的哪一层使用、如何处理启动类、作用域的差异以及如何在Spring Boot的启动类中使用Bean。根据具体需求和情况,可以选择合适的解决方案。 #### 引用[.reference_title] - *1* *3* [springboot整合flink(一)](https://blog.csdn.net/paulwang040/article/details/127431952)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [FlinkSpringBoot结合的问题](https://blog.csdn.net/weixin_41703570/article/details/118076439)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值