BaseTask

package cn.itcast.streaming.task;

import cn.itcast.utils.ConfigLoader;
import org.apache.flink.api.common.restartstrategy.RestartStrategies;
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.api.java.utils.ParameterTool;
import org.apache.flink.contrib.streaming.state.RocksDBStateBackend;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.TimeCharacteristic;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.CheckpointConfig;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011;
import org.apache.kafka.clients.consumer.ConsumerConfig;

import java.io.IOException;
import java.util.Properties;

/**
 * 定义所有task作业的父类,在父类中实现公共的代码
 * 加载配置文件内容到ParameterTool对象中
 * 1)flink流处理环境的初始化
 * 2)flink接入kafka数据源消费数据
 */
public abstract class BaseTask {
    //定义parameterTool工具类
    public static ParameterTool parameterTool;
    public static String appName;

    /**
     * 定义静态代码块,加载配置文件数据到ParameterTool对象中
     */
    static {
        try {
            parameterTool = ParameterTool.fromPropertiesFile(BaseTask.class.getClassLoader().getResourceAsStream("conf.properties"));
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    //todo 1)初始化flink流式处理的开发环境
    private static StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

    /**
     * TODO 1)flink任务的初始化方法
     * @return
     */
    public static StreamExecutionEnvironment getEnv(String className){
        System.setProperty("HADOOP_USER_NAME", "root");
        //设置全局的参数(使用的时候可以直接用法:getRuntimeContext())
        env.getConfig().setGlobalJobParameters(parameterTool);
        //todo  2)按照事件时间处理数据(terminalTimeStamp)进行窗口的划分和水印的添加
        env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
        //为了后续进行测试方便,将并行度设置为1,在生产环境一定不要设置代码级别的并行度,可以设置client级别的并行度
        env.setParallelism(1);

        //todo 3)开启checkpoint
        //  3.1:设置每隔30s周期性开启checkpoint
        env.enableCheckpointing(30*1000);
        //  3.2:设置检查点的model、exactly-once、保证数据一次性语义
        env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
        //  3.3:设置两次checkpoint的时间间隔,避免两次间隔太近导致频繁的checkpoint,而出现业务处理能力下降
        env.getCheckpointConfig().setMinPauseBetweenCheckpoints(20 * 1000);
        //  3.4:设置checkpoint的超时时间
        env.getCheckpointConfig().setCheckpointTimeout(20*1000);
        //  3.5:设置checkpoint的最大尝试次数,同一个时间有几个checkpoint在运行
        env.getCheckpointConfig().setMaxConcurrentCheckpoints(1);
        //  3.6:设置checkpoint取消的时候,是否保留checkpoint,checkpoint默认会在job取消的时候删除checkpoint
        env.getCheckpointConfig().enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);
        //  3.7:设置执行job过程中,保存检查点错误时,job不失败
        env.getCheckpointConfig().setFailOnCheckpointingErrors(false);
        //  3.8:设置检查点的存储位置,使用rocketDBStateBackend,存储本地+hdfs分布式文件系统,可以进行增量检查点
        String hdfsBasePath = parameterTool.getRequired("hdfsUri");
        try {
            env.setStateBackend(new RocksDBStateBackend(hdfsBasePath+"/flink/checkpoint/"+ className));
        } catch (IOException e) {
            e.printStackTrace();
        }
        //todo  4)设置任务的重启策略(固定延迟重启策略、失败率重启策略、无重启策略)
        //todo  4.1:如果开启了checkpoint,默认不停的重启,没有开启checkpoint,无重启策略
        env.setRestartStrategy(RestartStrategies.fallBackRestart());

        appName = className;
        //返回env对象
        return env;
    }

    /**
     * TODO 2)flink接入kafka数据源消费数据
     * @param clazz
     * @param <T>
     * @return
     */
    public static <T> DataStream<T> createKafkaStream(Class<? extends DeserializationSchema> clazz) throws IllegalAccessException, InstantiationException {
        //todo  5)创建flink消费kafka数据的对象,指定kafka的参数信息
        Properties props = new Properties();
        // 5.1:设置kafka的集群地址
        props.setProperty(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, parameterTool.getRequired("bootstrap.servers"));
        // 5.2:设置消费者组id
        props.setProperty(ConsumerConfig.GROUP_ID_CONFIG, parameterTool.getRequired("kafka.group.id")+appName);
        // 5.3:设置kafka的分区感知(动态感知)
        props.setProperty("flink.partition-discovery.interval-millis", "30000");
        // 5.4:设置key和value的反序列化(可选)
        // 5.5:设置是否自动递交offset
        props.setProperty(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, parameterTool.get("enable.auto.reset", "earliest"));
        // 5.6:创建kafka的消费者实例
        FlinkKafkaConsumer011<T> kafkaConsumer011= new FlinkKafkaConsumer011<T>(
                parameterTool.getRequired("kafka.topic"),
                clazz.newInstance(),
                props
        );
        // 5.7:设置自动递交offset保存到检查点
        kafkaConsumer011.setCommitOffsetsOnCheckpoints(true);
        //todo  6)将kafka消费者对象添加到环境中
        DataStreamSource streamSource = env.addSource(kafkaConsumer011);
        //返回消费到的数据
        return streamSource;
    }
}
 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值