Flink1.11.2-1Json-sideProcess

Flink1.11.2-1Json-sideProcess

ToHdfs

package com.flink.app.toHdfs;

import com.flink.app.parJson.P_PageLog;
import com.flink.app.parJson.P_PageLog2;
import com.flink.bean.PageLog;
import com.flink.bean.PageLog2;
import com.hdfs.HdfsUtils;
import com.kafka.kafka_api.KafkaUtils;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011;
import org.apache.flink.util.OutputTag;

public class ToHdfs {
    public static void main(String[] args) {
        // 创建执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        FlinkKafkaConsumer011 kafkaSource = KafkaUtils.getFlinkKafkaConsumer("pageLog");
        DataStreamSource<String> dsJsonStr = env.addSource(kafkaSource);
        SingleOutputStreamOperator<String> processDS = dsJsonStr.process(new MySideProcess());
        OutputTag<String> pageLogOutputTag = new OutputTag<String>("pageLog"){};
        //pageLog sink
        processDS.getSideOutput(pageLogOutputTag)
                .map(new MapFunction<String, PageLog>() {
                    @Override
                    public PageLog map(String in) throws Exception {
                        PageLog pageLog = P_PageLog.getPageLog(in);
                        System.out.println(pageLog);
                        return pageLog;
                    }
                })
//                .print("pageLog")
                .addSink(HdfsUtils.getPageLogBucketingSink("hdfs://192.168.1.162:8020/kafkaTohdfs/pageLog"));

        //pageLog2 sink
        OutputTag<String> pageLog2OutputTag = new OutputTag<String>("pageLog2"){};
        processDS.getSideOutput(pageLog2OutputTag)
                .map(new MapFunction<String, PageLog2>() {
                    @Override
                    public PageLog2 map(String in) throws Exception {
                        PageLog2 pageLog2 = P_PageLog2.getPageLog2(in);
                        System.out.println(pageLog2);
                        return pageLog2;
                    }
                })
//                .print("pageLog2")
                .addSink(HdfsUtils.getPageLog2BucketingSink("hdfs://192.168.1.162:8020/kafkaTohdfs/pageLog2/"));
        // BucketingSink sink = HdfsUtils.getBucketingSink("hdfs://192.168.1.162:8020/kafkaTohdfs/");
        //dsStr.addSink(sink);




        try {
            env.execute();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }


}

MySideProcess

package com.flink.app.toHdfs;

import org.apache.flink.streaming.api.functions.ProcessFunction;
import org.apache.flink.util.Collector;
import org.apache.flink.util.OutputTag;

public class MySideProcess extends ProcessFunction<String,String> {
    OutputTag<String> pageLog = new OutputTag<String>("pageLog"){};
    OutputTag<String> pageLog2 = new OutputTag<String>("pageLog2"){};
    @Override
    public void processElement(String value, Context ctx, Collector<String> out) throws Exception {
        ctx.output(pageLog,value);
        ctx.output(pageLog2,value);
        out.collect(value);
    }
}

HdfsUtils

package com.hdfs;

import com.flink.bean.PageLog;
import com.flink.bean.PageLog2;
import org.apache.flink.streaming.connectors.fs.StringWriter;
import org.apache.flink.streaming.connectors.fs.bucketing.BucketingSink;

public class HdfsUtils {
    public static  BucketingSink getPageLogBucketingSink(String basePath ){
        //basePath="hdfs://192.168.1.162:8020/kafkaTohdfs/"
        BucketingSink<PageLog> sink = new BucketingSink<>(basePath);
//通过这样的方式来实现数据跨天分区
//        sink.setBucketer(new EventTimeBucketer<PageLog>("yyyy/MM/dd"));
        sink.setBucketer(new PageLogEventTimeBucketer("yyyy-MM-dd/HH"));
        sink.setWriter(new StringWriter<>());
        // sink.setBatchSize(1024 * 1024 * 256L);
        sink.setBatchRolloverInterval(1 * 60 * 1000L);   //时间
        //sink.setInactiveBucketThreshold(3 * 60 * 1000L);
        //sink.setInactiveBucketCheckInterval(30 * 1000L);
        //设置的是检查两次检查桶不活跃的情况的周期
        sink.setInactiveBucketCheckInterval(1*60*1000L);
        //设置的是关闭不活跃桶的阈值,多久时间没有数据写入就关闭桶
        sink.setInactiveBucketThreshold(1*60*1000L);

        sink.setInProgressSuffix(".in-progress");
        sink.setPendingSuffix(".pending");
        return sink;
    }
    public static  BucketingSink getPageLog2BucketingSink(String basePath ){
        //basePath="hdfs://192.168.1.162:8020/kafkaTohdfs/"
        BucketingSink<PageLog2> sink = new BucketingSink<>(basePath);
//通过这样的方式来实现数据跨天分区
//        sink.setBucketer(new EventTimeBucketer<PageLog>("yyyy/MM/dd"));
        sink.setBucketer(new PageLog2EventTimeBucketer("yyyy-MM-dd/HH"));
        sink.setWriter(new StringWriter<>());
        // sink.setBatchSize(1024 * 1024 * 256L);
        sink.setBatchRolloverInterval(1 * 60 * 1000L);   //时间
        //sink.setInactiveBucketThreshold(3 * 60 * 1000L);
        //sink.setInactiveBucketCheckInterval(30 * 1000L);
        //设置的是检查两次检查桶不活跃的情况的周期
        sink.setInactiveBucketCheckInterval(1*60*1000L);
        //设置的是关闭不活跃桶的阈值,多久时间没有数据写入就关闭桶
        sink.setInactiveBucketThreshold(1*60*1000L);

        sink.setInProgressSuffix(".in-progress");
        sink.setPendingSuffix(".pending");
        return sink;
    }
}

PageLog2EventTimeBucketer

package com.hdfs;
import com.flink.bean.PageLog2;
import org.apache.flink.streaming.connectors.fs.Clock;
import org.apache.flink.streaming.connectors.fs.bucketing.Bucketer;
import org.apache.hadoop.fs.Path;

import java.io.IOException;
import java.io.ObjectInputStream;
import java.time.Instant;
import java.time.ZoneId;
import java.time.format.DateTimeFormatter;

public class PageLog2EventTimeBucketer implements Bucketer<PageLog2> {
    private static final String DEFAULT_FORMAT_STRING = "yyyy/MM/dd";
    private final String formatString;
    private final ZoneId zoneId;
    private transient DateTimeFormatter dateTimeFormatter;
    public PageLog2EventTimeBucketer() {
        this(DEFAULT_FORMAT_STRING);
    }
    public PageLog2EventTimeBucketer(String formatString) {
        this(formatString, ZoneId.systemDefault());
    }
    public PageLog2EventTimeBucketer(ZoneId zoneId) {
        this(DEFAULT_FORMAT_STRING, zoneId);
    }
    public PageLog2EventTimeBucketer(String formatString, ZoneId zoneId) {
        this.formatString = formatString;
        this.zoneId = zoneId;
        this.dateTimeFormatter = DateTimeFormatter.ofPattern(this.formatString).withZone(this.zoneId);
    }
    //记住,这个方法一定要加,否则dateTimeFormatter对象会是空,此方法会在反序列的时候调用,这样才能正确初始化dateTimeFormatter对象
    //那有的人问了,上面构造函数不是初始化了吗?反序列化的时候是不走构造函数的
    private void readObject(ObjectInputStream in) throws IOException, ClassNotFoundException {
        in.defaultReadObject();
        this.dateTimeFormatter = DateTimeFormatter.ofPattern(formatString).withZone(zoneId);
    }
    @Override
    public Path getBucketPath(Clock clock, Path basePath, PageLog2 element) {
        String newDateTimeString = dateTimeFormatter.format(Instant.ofEpochMilli(element.getuId()*1000));
      // System.out.println(element.getuId());
       // System.out.println(newDateTimeString);
        return new Path(basePath + "/" + newDateTimeString);
    }
}

PageLogEventTimeBucketer

package com.hdfs;
import com.flink.bean.PageLog;
import org.apache.flink.streaming.connectors.fs.Clock;
import org.apache.flink.streaming.connectors.fs.bucketing.Bucketer;
import org.apache.hadoop.fs.Path;
import java.io.IOException;
import java.io.ObjectInputStream;
import java.time.Instant;
import java.time.ZoneId;
import java.time.format.DateTimeFormatter;

public class PageLogEventTimeBucketer implements Bucketer<PageLog> {
    private static final String DEFAULT_FORMAT_STRING = "yyyy/MM/dd";
    private final String formatString;
    private final ZoneId zoneId;
    private transient DateTimeFormatter dateTimeFormatter;
    public PageLogEventTimeBucketer() {
        this(DEFAULT_FORMAT_STRING);
    }
    public PageLogEventTimeBucketer(String formatString) {
        this(formatString, ZoneId.systemDefault());
    }
    public PageLogEventTimeBucketer(ZoneId zoneId) {
        this(DEFAULT_FORMAT_STRING, zoneId);
    }
    public PageLogEventTimeBucketer(String formatString, ZoneId zoneId) {
        this.formatString = formatString;
        this.zoneId = zoneId;
        this.dateTimeFormatter = DateTimeFormatter.ofPattern(this.formatString).withZone(this.zoneId);
    }
    //记住,这个方法一定要加,否则dateTimeFormatter对象会是空,此方法会在反序列的时候调用,这样才能正确初始化dateTimeFormatter对象
    //那有的人问了,上面构造函数不是初始化了吗?反序列化的时候是不走构造函数的
    private void readObject(ObjectInputStream in) throws IOException, ClassNotFoundException {
        in.defaultReadObject();
        this.dateTimeFormatter = DateTimeFormatter.ofPattern(formatString).withZone(zoneId);
    }
    @Override
    public Path getBucketPath(Clock clock, Path basePath, PageLog element) {
        String newDateTimeString = dateTimeFormatter.format(Instant.ofEpochMilli(element.getuId()*1000));
      // System.out.println(element.getuId());
       // System.out.println(newDateTimeString);
        return new Path(basePath + "/" + newDateTimeString);
    }
}

P_PageLog

package com.flink.app.parJson;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.JSONObject;
import com.flink.bean.PageLog;

public class P_PageLog {
    public static PageLog getPageLog(String in){
       // System.out.println(in);
        JSONObject jsonObject = JSON.parseObject(in);
        String app_id = jsonObject.getString("app_id");
        String device_id = jsonObject.getString("device_id");
        String pageId = jsonObject.getString("page_id");
        String uId = jsonObject.getString("uid");
        PageLog pageLog = new PageLog(app_id,device_id,pageId,Long.valueOf(uId));
        return pageLog;
    }
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用网络文章开启本课程的开篇: 在大数据分析领域中,传统的大数据分析需要不同框架和技术组合才能达到最终的效果,在人力成本,技术能力和硬件成本上以及维护成本让大数据分析变得成为昂贵的事情。让很多中小型企业非常苦恼,不得不被迫租赁第三方大型公司的数据分析服务。  ClickHouse开源的出现让许多想做大数据并且想做大数据分析的很多公司和企业耳目一新。ClickHouse 正是以不依赖Hadoop 生态、安装和维护简单、查询速度快、可以支持SQL等特点在大数据分析领域越走越远。  本课程采用全新的大数据技术栈:Flink+ClickHouse,让你体验到全新技术栈的强大,感受时代变化的气息,通过学习完本课程可以节省你摸索的时间,节省企业成本,提高企业开发效率。本课程不仅告诉你如何做项目,还会告诉你如何验证系统如何支撑亿级并发,如何部署项目等等。希望本课程对一些企业开发人员和对新技术栈有兴趣的伙伴有所帮助,如对我录制的教程内容有建议请及时交流。 课程概述:在这个数据爆发的时代,像大型电商的数据量达到百亿级别,我们往往无法对海量的明细数据做进一步层次的预聚合,大量的业务数据都是好几亿数据关联,并且我们需要聚合结果能在秒级返回。  那么我们该如何实现这一需求呢?基于Flink+ClickHouse构建电商亿级实时数据分析平台课程,将带领大家一步一步从无到有实现一个高性能的实时数据分析平台,该系统以热门的互联网电商实际业务应用场景为案例讲解,对电商数据的常见实战指标以及难点实战指标进行了详尽讲解,具体指标包括:概况统计、全站流量分析、渠道分析、广告分析、订单分析、运营分析(团购、秒杀、指定活动)等,该系统指标分为分钟级和小时级多时间方位分析,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。 本课程凝聚讲师多年一线大数据企业实际项目经验,大数据企业在职架构师亲自授课,全程实操代码,带你体验真实的大数据开发过程,代码现场调试。通过本课程的学习再加上老师的答疑,你完全可以将本案例直接应用于企业。 本套课程可以满足世面上绝大多数大数据企业级的海量数据实时分析需求,全部代码在老师的指导下可以直接部署企业,支撑千亿级并发数据分析。项目代码也是具有极高的商业价值的,大家可以根据自己的业务进行修改,便可以使用。  本课程包含的技术: 开发工具为:IDEA、WebStorm Flink1.9.0 ClickHouseHadoop2.6.0 Hbase1.0.0 Kafka2.1.0 Hive1.0.0 Jmeter(验证如何支撑亿级并发)Docker (虚拟化部署)HDFS、MapReduce Zookeeper SpringBoot2.0.2.RELEASE SpringCloud Finchley.RELEASE Binlog、Canal MySQL Vue.js、Nodejs Highcharts Linux Shell编程  课程亮点: 1.与企业对接、真实工业界产品 2.ClickHouse高性能列式存储数据库 3.大数据热门技术Flink新版本 4.Flink join 实战 5.Flink 自定义输出路径实战 6.全链路性能压力测试 7.虚拟化部署 8.集成指标明细查询 9.主流微服务后端系统 10.分钟级别与小时级别多时间方位分析 11.数据库实时同步解决方案 12.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS 13.集成SpringCloud实现统一整合方案 14.互联网大数据企业热门技术栈 15.支持海量数据的实时分析 16.支持全端实时数据分析 17.全程代码实操,提供全部代码和资料 18.提供答疑和提供企业技术方案咨询 企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。 

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值