电商风控系统(flink+groovy+flume+kafka+redis+clickhouse

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

public class FlinkTurotial1_17 {

public static void main(String[] args) throws Exception {

    //todo 1.创建执行环境
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

    //todo 2.读取数据
    DataStreamSource<String> stringDataStreamSource = env.readTextFile("D:\\juege\\code\\hope-backend\\opentech\\src\\main\\resources\\flinkTextSource.txt");

    //todo 3.进行数据处理 先 flatmap 再 keyby 再 sum 再打印输出
    stringDataStreamSource.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
        @Override
        public void flatMap(String s, Collector<Tuple2<String, Integer>> collector) throws Exception {
            String[] words = s.split(" ");
            for (String word : words) {
                collector.collect(new Tuple2<>(word, 1));
            }
        }
    }).keyBy(0).sum(1).print();

    //todo 4.执行任务
    env.execute("pantouyu");
}

}


数据源


![](https://img-blog.csdnimg.cn/direct/dc103a7f666246e4a95840d1a971db4c.png)


 显示结果如下


![](https://img-blog.csdnimg.cn/direct/39e3433a085b4c77b15964e5592be7d3.png)


 使用state来实现sum方法的效果



package com.example.flinktest.test;

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

public class FlinkTurotial1_17 {

public static void main(String[] args) throws Exception {

    //todo 1.创建执行环境
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

    //todo 2.读取数据
    DataStreamSource<String> stringDataStreamSource = env.readTextFile("D:\\juege\\code\\flink-test\\src\\main\\resources\\flinkTextSource.txt");

    //todo 3.进行数据处理 先 flatmap 再 keyby 再 sum 再打印输出
    stringDataStreamSource.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
        @Override
        public void flatMap(String s, Collector<Tuple2<String, Integer>> collector) throws Exception {
            String[] words = s.split(" ");
            for (String word : words) {
                collector.collect(new Tuple2<>(word, 1));
            }
        }
    }).keyBy(0)
            .flatMap(new SumFunction()).print();

// .sum(1).print();

    //todo 4.执行任务
    env.execute("pantouyu");
}

}



package com.example.flinktest.test;

import org.apache.flink.api.common.functions.RichFlatMapFunction;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.util.Collector;

public class SumFunction extends RichFlatMapFunction<Tuple2<String, Integer>, Tuple2<String, Integer>> {
private transient ValueState sumState;

@Override
public void open(Configuration parameters) throws Exception {
    ValueStateDescriptor<Integer> descriptor = new ValueStateDescriptor<>("sumState", Integer.class);
    sumState = getRuntimeContext().getState(descriptor);
}

@Override
public void flatMap(Tuple2<String, Integer> value, Collector<Tuple2<String, Integer>> out) throws Exception {
    String key = value.f0;
    Integer inputValue = value.f1;

    Integer currentSum = sumState.value();
    if (currentSum == null) {
        currentSum = 0;
    }

    currentSum += inputValue;
    sumState.update(currentSum);

    out.collect(new Tuple2<>(key, currentSum));
}

}


### 2.2时间,窗口,水印


#### 窗口


![](https://img-blog.csdnimg.cn/direct/f8024eb46bed45eea8d74fa0f6fe4d65.png)


![](https://img-blog.csdnimg.cn/direct/0901308d980a4e478e053d0e7199fcb5.png)


### **全局窗口**


根据数据条数触发计算 比如如下就是 每来五条计算一次 并且并行度 等于1


### 滚动窗口


根据固定时间确定一个个窗口来触发计算 如下为10分钟


### 滑动窗口


根据固定时间确定一个窗口 然后间隔一定的时间触发窗口的计算


比如如下为 10分钟一个窗口 然后间隔时间为 1分钟那么 第一次计算的窗口


时间为 0-10分钟这个窗口内的数据 第二次 为 1-11分钟这个窗口内的数据 以此类推


![](https://img-blog.csdnimg.cn/direct/437a07da3b2d4e5a935bc89f79796859.png)


#### 时间


![](https://img-blog.csdnimg.cn/direct/e59701ea62bc4c1694b89ecb24f565cc.png)


![](https://img-blog.csdnimg.cn/direct/b65db9c665af499f90fec7419aa44dff.png)


#### 水印


水位线是个动态值 水印 = 当前窗口最大事件事件-允许延迟事件


当系统中以提取事件或者处理时间为准时不需要水印, 以**事件事件为准**时才需要水印 水印在国内又被称作水位线 在我们后面**解决数据延迟问题时比较重要** 这里先看下 不懂也没关系


![](https://img-blog.csdnimg.cn/direct/bcdd84abca16419ab0cc293dde55f2f0.png)


![](https://img-blog.csdnimg.cn/direct/d644739ac5ad4d488b55c5a19b59227b.png)


### 2.3 窗口 时间 水印综合运用 解决数据延迟问题案例


如下图 左侧有个窗口 数据从上往下先后来了三条数据 


首先 **水印/水位线 = 当前窗口最大事件事件-允许延迟事件**


**当水位线 >= 窗口时间时 就触发计算**


以下说的除了窗口时间外都是事件事件 也就是 数据上携带的时间戳


举个例子 当前 窗口时间为10分钟 但是有一条本应该9分钟到的数据 12分钟才到 那么你可以设置


允许延迟的时间为 2分钟 那么 当12分钟那条数据到的时候,通过公式计算


水位线 = 12-2 = 10>10(窗口时间) 那么这个时候刚好可以触发计算 12分钟到的那条数据也被包含在了这个窗口


![](https://img-blog.csdnimg.cn/direct/bcac1b824a8740f490eef39951b3109b.png)


### 


### 2.4CEP


复杂事件找共性处理


![](https://img-blog.csdnimg.cn/direct/a99fbaa92a3243f3b3c7b0d4ff07fb46.png)


 


### 2.5并行度,任务,子任务


#### 并行度


首先并行就是并发执行 前面我们说到了 一个taskmanager对应一个jvm进程,一个taskmanager中又有多个slot那么 一个slot就对应一个并行度,如果我们现在有两个jobmanager 每个jobmanager下有两个taskmanger 然后 每个taskmanager下面有三个slot 那么 这个flink app支持设置的最大并行度为多少呢 支持的最大并行度 = jobmanager数量\* taskmanager数量\*slot数量 =slot总数=2\*2\*3=12 那么 这个时候我如果设置 并行度为 10,那么就会有俩slot空闲 如果设置为12那就刚好


如果设置为14那么启动报错 因为我们计算结果支持的最大并行度为12



#### 任务及子任务


通过以下这句话 判断下一张图片中任务及子任务数


![](https://img-blog.csdnimg.cn/direct/53ecfded094b40aaade9791b480f7506.png)


 首先**source为第一个任务 他的并行度为2 所以有俩子任务**


然后flatmap的并行度是3 按上图所说 并行度相对于前一个任务发生了变化 无法合并 所以


f**latmap是第二个任务 他的并行度为3 所以有三个子任务**


 


再来到下一个算子 **keyby 根据上图所说 就算这里的keyby并行度为3 他也是个独立的任务**


**自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**

**深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!**

**因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。**
![img](https://img-blog.csdnimg.cn/img_convert/2959d007eaabc4ad521f27581174ec5e.png)
![img](https://img-blog.csdnimg.cn/img_convert/b1882c4f9f26be04727cc8ac0c3fda4c.png)
![img](https://img-blog.csdnimg.cn/img_convert/9a736c60e3ab8c8cc02e1b1c745bcb93.png)
![img](https://img-blog.csdnimg.cn/img_convert/6fbab2187d422652493746d9d4218bad.png)
![img](https://img-blog.csdnimg.cn/img_convert/798baf33526ed8f4e8312ed73589817a.png)

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!**

**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**

**如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)**
![img](https://img-blog.csdnimg.cn/img_convert/ff634e71ec9171a6902671837f4394db.png)

4843)]
[外链图片转存中...(img-96sCmyhE-1712906914843)]

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!**

**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**

**如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)**
[外链图片转存中...(img-N4LIvohu-1712906914844)]

  • 6
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值