Flink入门第五课:Flink的分流合流算子&重分区算子

 一、分流合流算子

package com.atguigu.Adatastream_api.transformations;

import com.atguigu.Fbeans.SensorReading;
import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.streaming.api.TimeCharacteristic;
import org.apache.flink.streaming.api.collector.selector.OutputSelector;
import org.apache.flink.streaming.api.datastream.*;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.CoMapFunction;

import java.util.Collections;

public class CManyStreamTest {
    public static void main(String[] args) throws Exception {
        //创建环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);

        //读取数据并包装成pojo
        DataStreamSource<String> inputStream = env.readTextFile("G:\\SoftwareInstall\\idea\\project\\UserBehaviorAnalysis\\BasicKnowledge\\src\\main\\resources\\sensor.txt");
        DataStream<SensorReading> dataStream = inputStream.map(line -> {
            String[] fields = line.split(",");
            return new SensorReading(new String(fields[0]), new Long(fields[1]), new Double(fields[2]));
        });

        /**
         * 利用split将流拆分,利用select选择拆分得到的子流
         *  这两个算子在flink1.2版本已标记为过时,可以借助outputTag结合process实现分流
         */
        SplitStream<SensorReading> split = dataStream.split(new OutputSelector<SensorReading>() {
            @Override
            public Iterable<String> select(SensorReading sen) {
                return sen.getTemperature() > 30 ? Collections.singletonList("high") : Collections.singletonList("low");
            }
        });
        DataStream<SensorReading> highStream = split.select("high");
        DataStream<SensorReading> lowStream = split.select("low");

        /**
         * 合流有两个算子:connect、union
         *  connect合并两条数据类型不一样的流,合并后虽然在同属一条流,但却彼此独立。
         *      要想真正合流,后面需要在map算子中使用coMap算子和coFlatMap算子统一数据类型
         *     如果无法统一成一样的数据类型,那就用Object做统一后的数据类型
         *  union:合并多条数据类型一样的流。
         */
        //为了测试connect,先将highStream转换成和lowStream不一样的流
        SingleOutputStreamOperator<Tuple2<String,Double>> newHighStream = highStream.map(new RichMapFunction<SensorReading, Tuple2<String, Double>>() {
            @Override
            public Tuple2<String, Double> map(SensorReading data) throws Exception {
                return new Tuple2(data.getId(), data.getTemperature());
            }
        });
        //泛型是两条子流的数据类型
        ConnectedStreams<Tuple2<String, Double>, SensorReading> connectedStream = newHighStream.connect(lowStream);
        //利用coMap对connect的合流进行处理,泛型三是最终合流类型,自己可以改
        DataStream<Object> result1 = connectedStream.map(new CoMapFunction<Tuple2<String, Double>, SensorReading, Object>() {
            @Override
            public Object map1(Tuple2<String, Double> tuple) throws Exception {
                return new Tuple3(tuple.f0, tuple.f1, "warning:温度太高了!!");
            }

            @Override
            public Object map2(SensorReading sen) throws Exception {
                return new Tuple3(sen.getId(), sen.getTemperature(), sen.getTimestamp());
            }
        });
        //测试union,union内可以传多个类型一样的类
        DataStream<SensorReading> result2 = highStream.union(lowStream,lowStream,highStream);
        //输出数据
        highStream.print("这是高温流!!!");
        lowStream.print("这是低温流!!!");
        result1.print("测试connect结合map中的coMap合并两条流。");
        result2.print("测试union合并多条数据类型一致的流");

        env.execute("合流分流算子测试");
    }
}

二、重分区算子

1、shuffle
    将数据随机发往下游的每一个suatask
    
2、rebalance
    以轮询方式均分到下游每一个subtask   

3、rescale
    上游2个分区,下游4个分区。则上游每个分区的全量数据轮询发往下游的两个分区

4、broadcast
    将数据广播给下游每一个subtask

5、global
    所有数据发往下游第一个subtask  
             
6、forward
    只在当前分区做计算                              

7、partitionCustom
    用户自定义分区方式

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
在信号处理领域,DOA(Direction of Arrival)估计是一项关键技术,主要用于确定多个信号源到达接收阵列的方向。本文将详细探讨三种ESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)算法在DOA估计中的实现,以及它们在MATLAB环境中的具体应用。 ESPRIT算法是由Paul Kailath等人于1986年提出的,其核心思想是利用阵列数据的旋转不变性来估计信号源的角度。这种算法相比传统的 MUSIC(Multiple Signal Classification)算法具有较低的计算复杂度,且无需进行特征值分解,因此在实际应用中颇具优势。 1. 普通ESPRIT算法 普通ESPRIT算法分为两个主要步骤:构造等效旋转不变系统和估计角度。通过空间平移(如延时)构建两个子阵列,使得它们之间的关系具有旋转不变性。然后,通过对子阵列数据进行最小二乘拟合,可以得到信号源的角频率估计,进一步转换为DOA估计。 2. 常规ESPRIT算法实现 在描述中提到的`common_esprit_method1.m`和`common_esprit_method2.m`是两种不同的普通ESPRIT算法实现。它们可能在实现细节上略有差异,比如选择子阵列的方式、参数估计的策略等。MATLAB代码通常会包含预处理步骤(如数据归一化)、子阵列构造、旋转不变性矩阵的建立、最小二乘估计等部分。通过运行这两个文件,可以比较它们在估计精度和计算效率上的异同。 3. TLS_ESPRIT算法 TLS(Total Least Squares)ESPRIT是对普通ESPRIT的优化,它考虑了数据噪声的影响,提高了估计的稳健性。在TLS_ESPRIT算法中,不假设数据噪声是高斯白噪声,而是采用总最小二乘准则来拟合数据。这使得算法在噪声环境下表现更优。`TLS_esprit.m`文件应该包含了TLS_ESPRIT算法的完整实现,包括TLS估计的步骤和旋转不变性矩阵的改进处理。 在实际应用中,选择合适的ESPRIT变体取决于系统条件,例如噪声水平、信号质量以及计算资源。通过MATLAB实现,研究者和工程师可以方便地比较不同算法的效果,并根据需要进行调整和优化。同时,这些代码也为教学和学习DOA估计提供了一个直观的平台,有助于深入理解ESPRIT算法的工作原理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二百四十九先森

你的打赏是我努力的最大动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值