flink架构师2-进阶开发

一 、flink 进阶开发目标 0~ 1:52

  1. 掌握常见的DataStream常见的source
  2. 掌握常见的DataStream的transformation操作
  3. 掌握常见的DataStream的sink操作

1、Flink之数据源(DataStream)0:20~0:45

1 source简介
source是程序的数据源输入,你可以通过StreamExecutionEnvironment.addSource(sourceFunction)
来为你的程序添加一个source。
flink提供了大量的已经实现好的source方法,也可以自定义source:

  1. 通过实现sourceFunction接口来自定义无并行度的source
  2. 通过实现ParallelSourceFunction 接口 or 继承RichParallelSourceFunction 来自定义有并行度的
    source
    大多数情况下,我们使用自带的source即可。
自定义单线程数据源

public class MyNoParalleSource implements SourceFunction<Long>

自定义多线程数据源

public class MyParalleSource implements ParallelSourceFunction<Long>

2 常见Transformation操作 0:45~1:02

2.1 map和filter
2.2 flatMap,keyBy和sum
/**
* 滑动窗口实现单词计数
* 数据源:socket
* 需求:每隔1秒计算最近2秒单词出现的次数
*
* 练习算子:
* flatMap
* keyBy:
* dataStream.keyBy("someKey") // 指定对象中的 "someKey"字段作为分组key
* dataStream.keyBy(0) //指定Tuple中的第一个元素作为分组key
* sum
*/
public class WindowWordCountJava {
public static void main(String[] args) throws Exception {
int port;
try{
ParameterTool parameterTool = ParameterTool.fromArgs(args);
port = parameterTool.getInt("port");
}catch (Exception e){
System.err.println("no port set,user default port 9988");
port=9988;
}
//步骤一:获取flink运行环境(stream)
StreamExecutionEnvironment env=
StreamExecutionEnvironment.getExecutionEnvironment();
String hostname="10.126.88.226";
String delimiter="\n";
//步骤二:获取数据源
DataStreamSource<String> textStream = env.socketTextStream(hostname,
port, delimiter);
//步骤三:执行transformation操作
SingleOutputStreamOperator<WordCount> wordCountStream =
textStream.flatMap(new FlatMapFunction<String, WordCount>() {
public void flatMap(String line, Collector<WordCount> out) throws
Exception {
String[] fields = line.split("\t");
for (String word : fields) {
out.collect(new WordCount(word, 1L));
}
}
}).keyBy("word")
.timeWindow(Time.seconds(2), Time.seconds(1))//每隔1秒计算最近2秒
.sum("count");
wordCountStream.print().setParallelism(1);//打印并设置并行度
//步骤四:运行程序
env.execute("socket word count");
}

3 常见Sink操作 1:02~1:06

4 DataSet算子操作 1:07~1:40

.####4.1 source
基于文件
readTextFile(path)
基于集合
fromCollection(Collection)

4.4.2 transform 1:09~1:30

算子概览
Map:输入一个元素,然后返回一个元素,中间可以做一些清洗转换等操作
FlatMap:输入一个元素,可以返回零个,一个或者多个元素
MapPartition:类似map,一次处理一个分区的数据【如果在进行map处理的时候需要获取第三方资源
链接,建议使用MapPartition】
Filter:过滤函数,对传入的数据进行判断,符合条件的数据会被留下
Reduce:对数据进行聚合操作,结合当前元素和上一次reduce返回的值进行聚合操作,然后返回一个新的值
Aggregate:sum、max、min等
Distinct:返回一个数据集中去重之后的元素,data.distinct()
Join:内连接
OuterJoin:外链接
Cross:获取两个数据集的笛卡尔积
Union:返回两个数据集的总和,数据类型需要一致
First-n:获取集合中的前N个元素
Sort Partition:在本地对数据集的所有分区进行排序,通过sortPartition()的链接调用来完成对多个段的排序

4.4.4 Flink之广播变量 1:30 ~1:37

广播变量允许编程人员在每台机器上保持1个只读的缓存变量,而不是传送变量的副本给tasks
广播变量创建后,它可以运行在集群中的任何function上,而不需要多次传递给集群节点。另外需要记住,不应该修改广播变量,这样才能确保每个节点获取到的值都是一致的
一句话解释,可以理解为是一个公共的共享变量,我们可以把一个dataset 数据集广播出去,然后不同的task在节点上都能够获取到,这个数据在每个节点上只会存在一份。如果不使用broadcast,则在每个节点中的每个task中都需要拷贝一份dataset数据集,比较浪费内存(也就是一个节点中可能会存在多份dataset数据)

用法

1:初始化数据
DataSet<Integer> toBroadcast = env.fromElements(1, 2, 3)
2:广播数据
withBroadcastSet(toBroadcast, "broadcastSetName");
3:获取数据
Collection<Integer> broadcastSet =
getRuntimeContext().getBroadcastVariable("broadcastSetName");

注意:
1:广播出去的变量存在于每个节点的内存中,所以这个数据集不能太大。因为广播出去的数据,会常驻内存,除非程序执行结束
2:广播变量在初始化广播出去以后不支持修改,这样才能保证每个节点的数据都是一致的。

DataSet<HashMap<String, Integer>> toBroadcast = tupleData.map(new
MapFunction<Tuple2<String, Integer>, HashMap<String, Integer>>() {
@Override
public HashMap<String, Integer> map(Tuple2<String, Integer> value)
throws Exception {
HashMap<String, Integer> res = new HashMap<>();
res.put(value.f0, value.f1);
return res;
}
});
//源数据
DataSource<String> data = env.fromElements("zs", "ls", "ww");
//注意:在这里需要使用到RichMapFunction获取广播变量
DataSet<String> result = data.map(new RichMapFunction<String, String>()
{
List<HashMap<String, Integer>> broadCastMap = new
ArrayList<HashMap<String, Integer>>();
HashMap<String, Integer> allMap = new HashMap<String, Integer>();
/**

  • 这个方法只会执行一次
  • 可以在这里实现一些初始化的功能
  • 所以,就可以在open方法中获取广播变量数据
    */
    @Override
    public void open(Configuration parameters) throws Exception {
    super.open(parameters);
    //3:获取广播数据
    this.broadCastMap =
    getRuntimeContext().getBroadcastVariable("broadCastMapName");
    for (HashMap map : broadCastMap) {
    allMap.putAll(map);
    }
    }
    @Override
    public String map(String value) throws Exception {
    Integer age = allMap.get(value);
    return value + "," + age;
    }
    }).withBroadcastSet(toBroadcast, "broadCastMapName");//2:执行广播数据的操

    result.print();
    }
    }
4.4.5 Flink之Counter(计数器)1:37~ 1:40

Accumulator即累加器,与Mapreduce counter的应用场景差不多,都能很好地观察task在运行期间的数据变化,可以在Flink job任务中的算子函数中操作累加器,但是只能在任务执行结束之后才能获得累加器的最终结果。

Counter是一个具体的累加器(Accumulator)实现
IntCounter, LongCounter 和 DoubleCounter

用法
1:创建累加器
private IntCounter numLines = new IntCounter();

二 、flink 高级开发(state 和window)目标 1:52~

2.1Keyed state 1:52~

Keyed state托管状态有六种类型:

  1. ValueState
  2. ListState
  3. MapState
  4. ReducingState
  5. AggregatingState
  6. FoldingState

2.1.1 ValueState 开发 1:52~2:13

2.1.2 ListState 开发 2:13~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值