【实战】flink读取hive写入redis

本文介绍了如何在业务背景下,使用Flink实现实时统计存量订购用户数。通过从Hive加载数据到Redis,以提高查询效率并实现去重操作。内容包括软件版本、依赖、代码实现以及详细解释,重点关注离线计算、实时统计、Kafka消费时间和批量加载Redis等关键点。
摘要由CSDN通过智能技术生成

一、业务背景

业务需求:需要实时统计截止到目前 存量订购用户数
根据指标口径:截止到目前依旧处于订购状态的用户
分析:根据离线计算统计出来的,目前存量用户有2E多,而要实时统计该指标,需要将新的订购日志与这2E多数据进行比对,当前该用户如果不是订购状态,则存量订购用户数+1。
并且统计的存量用户的清单表在hive中,如果每来一条日志,就去查询一下hive表,太慢了。所以将数据加载到redis中,不仅可以比对该号码,同时还进行了去重操作。

二、软件版本

flink 1.11.0
redis 2.9
hive 1.1.0
hadoop 2.6.0-cdh5.12.1

三、依赖

  <properties>
    <maven.compiler.source>1.8</maven.compiler.source>
    <maven.compiler.target>1.8</maven.compiler.target>
    <scala.version>2.11.0</scala.version>
    <flink.version>1.11.0</flink.version>
    <hive.version>1.1.0</hive.version>
    <hadoop.version>2.6.0-cdh5.12.1</hadoop.version>
  </properties>


  <dependencies>
    <dependency>
      <groupId>redis.clients</groupId>
      <artifactId>jedis</artifactId>
      <version>2.9.0</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-table-planner-blink_2.11</artifactId>
      <version>${flink.version}</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-table-planner_2.11</artifactId>
      <version>${flink.version}</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值