flink1.14 sql基础语法(一) flink sql表查询详解

flink sql表查询详解

1、高阶聚合

group by cube(维度1, 维度2, 维度3)

group by grouping sets( (维度1,维度2),(维度1,维度3),() )

group by rollup(省,市,区)

语法示例:

select 
  privince,
  city,
  region,
  count(distinct uid) as u_cnt
from t 
group by cube(province,city,region)


select 
  privince,
  city,
  region,
  count(distinct uid) as u_cnt
from t 
group by rollup(province,city,region)



select 
  privince,
  city,
  region,
  count(distinct uid) as u_cnt
from t 
group by grouping sets( (province,city), (province,city,region) )

2、时间窗口 TVF(表值函数)

flink从1.13开始,提供了时间窗口聚合计算的TVF语法。

表值函数的使用约束:

  • (1)在窗口上做分组聚合,必须带上window_start 和 window_end 作为分组的key;

  • (2)在窗口上做topn计算,必须带上window_start 和 window_end 作为partition的key;

  • (3)带条件的join,必须包含2个输入表的window_start 和 window_end 等值条件。

    select

    from table(
    tumble (table t ,descriptor(rt),interval ‘10’ minutes)
    )

(1) 支持的时间窗口类型

1、滚动窗口(Tumble Windows)

TUMBLE (TABLE t_action,descriptor(时间属性字段),INTERVAL '10' SECOND[ 窗口长度 ] )

2、滑动窗口(Hop Windows)

HOP (TABLE t_action,descriptor(时间属性字段),INTERVAL '5' SECONDS[ 滑动步长 ] , INTERVAL '10' SECOND[ 窗口长度 ] )

3、累计窗口(Cumulate Windows)

CUMULATE (TABLE t_action,descriptor(时间属性字段),INTERVAL '5' SECONDS[ 更新最大步长 ] , INTERVAL '10' SECOND[ 窗口最大长度 ] )

4、会话窗口(Session Windows)
暂不支持!

(2) 语法示例

select 
  window_start,
  window_end,
  channel,
  count(distinct guid) as uv
from table (
  tumble(table t_applog,descriptor(rt),interval '5' minute ) --滚动窗口 
)
group by window_start,window_end,channel

3、窗口topn

-- bidtime,price,item,supplier_id
2020-04-15 08:05:00.000,4.00,C,supplier1
2020-04-15 08:07:00.000,2.00,A,supplier1
2020-04-15 08:09:00.000,5.00,D,supplier2
2020-04-15 08:11:00.000,3.00,B,supplier2
2020-04-15 08:09:00.000,5.00,D,supplier3
2020-04-15 08:11:00.000,6.00,B,supplier3
2020-04-15 08:11:00.000,6.00,B,supplier3


/**
 * 10分钟滚动窗口中的交易金额最大的前2笔订单
 */
public class _02_Window_Topn_V2 {
    public static void main(String[] args)  {

        // 创建表的执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        StreamTableEnvironment tenv = StreamTableEnvironment.create(env);

        // 从kafka中读取数据
        String sourceTable = "CREATE TABLE source_table (
" +
                "  bidtime string ,
" +
                "  `price` double,
" +
                "  `item` STRING,
" +
                "  `supplier_id` STRING,
" +
                "  `rt` as cast( bidtime as timestamp(3) ),
" +
                "   watermark for rt as rt - interval '5' second
" +
                ") WITH (
" +
                "  'connector' = 'kafka',
" +
                "  'topic' = 'topn1',
" +
                "  'properties.bootstrap.servers' = 'hadoop01:9092',
" +
                "  'properties.group.id' = 'testGroup',
" +
                "  'scan.startup.mode' = 'earliest-offset',
" +
                "  'format' = 'csv'
" +
                ")";


        tenv.executeSql(sourceTable);
        // 10分钟滚动窗口中的交易金额最大的前2笔订单
        tenv.executeSql("select
" +
                "  *
" +
                "from(
" +
                "  select window_start,window_end, 
" +
                "    bidtime,
" +
                "    price,
" +
                "    item,
" +
                "    supplier_id,
" +
                "    row_number() over(partition by window_start,window_end order by price desc ) as rn
" +
                "  from table(
" +
                "    tumble(table source_table,descriptor(rt),interval '10' minute)
" +
                "  ) 
" +
                ") t1 where rn <= 2 ").print();
    }
}

## 结果如下
+----+-------------------------+-------------------------+-------------------------+-------+---------+--------------+-------+
| op |            window_start |              window_end |                 bidtime | price |    item |  supplier_id |    rn |
+----&#
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个 Flink 1.14 SQL 读取 Kafka 数据的示例代码: ```java import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.table.api.bridge.java.StreamTableEnvironment; import org.apache.flink.table.descriptors.*; import org.apache.flink.table.types.DataType; import org.apache.flink.types.Row; public class FlinkSQLKafkaDemo { public static void main(String[] args) throws Exception { // 创建 Flink 流执行环境 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 创建 Flink Table 环境 StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env); // Kafka 配置 String topic = "test_topic"; String bootstrapServers = "localhost:9092"; String groupId = "test_group_id"; // 定义 Kafka 数据源 Kafka kafka = new Kafka() .version("universal") .topic(topic) .property("bootstrap.servers", bootstrapServers) .property("group.id", groupId); // 定义格式化器 Schema schema = new Schema() .field("name", DataTypes.STRING()) .field("age", DataTypes.INT()); // 创建一个临时 tableEnv.connect(kafka) .withFormat(new Json().schema(schema)) .withSchema(new Schema() .field("name", DataTypes.STRING()) .field("age", DataTypes.INT())) .createTemporaryTable("test_table"); // 执行查询 TableResult result = tableEnv.executeSql("SELECT name, age FROM test_table WHERE age > 18"); // 输出结果 result.print(); } } ``` 这个示例代码演示了如何使用 Flink SQL 和 Kafka Connector 来读取 Kafka 数据,并在 SQL 查询中过滤数据。在示例中,我们首先定义了 Kafka 数据源和数据格式化器,然后使用 `createTemporaryTable` 方法创建了一个临时,最后使用 `executeSql` 方法执行了一个 SQL 查询,并将结果打印出来。需要注意的是,示例中的 JSON 格式化器需要额外依赖 `flink-json` 库。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值