flink sink to redis

不多bb!
先看RedisCommand设置数据结构类型时和redis结构对应关系。

Data TypeRedis Command [Sink]
HASHHSET
LISTRPUSH, LPUSH
SETSADD
PUBSUBPUBLISH
STRINGSET
HYPER_LOG_LOGPFADD
SORTED_SETZADD
SORTED_SETZREM

具体的操作类:

    package sink;
    import org.apache.flink.api.common.functions.MapFunction;
    import org.apache.flink.api.java.tuple.Tuple2;
    import org.apache.flink.streaming.api.datastream.DataStream;
    import org.apache.flink.streaming.api.datastream.DataStreamSource;
    import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.connectors.redis.RedisSink;
    import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig;
    import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommand;
    import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommandDescription;
    import org.apache.flink.streaming.connectors.redis.common.mapper.RedisMapper;

    public class StreamingDemoToRedis {
        public static void main(String[] args) throws Exception{
            String hostname="hadoop01";
            String delimiter="\n";
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            DataStreamSource<String> text = env.socketTextStream(hostname, 9000, delimiter);
            DataStream<Tuple2<String, String>> list_wordData = text.map(new MapFunction<String, Tuple2<String, String>>() {
                public Tuple2<String, String> map(String value) throws Exception {
                    return new Tuple2<>("list_word", value);
                }
            });
    
            //创建redis的配置
            FlinkJedisPoolConfig conf = new FlinkJedisPoolConfig.Builder().setHost(hostname).setPort(6379).build();
            //
            RedisSink<Tuple2<String, String>> redisSink = new RedisSink<Tuple2<String, String>>(conf, new MyRedisMapper());
            list_wordData.addSink(redisSink);
            env.execute("sink redis");
        }
        public static class MyRedisMapper implements RedisMapper<Tuple2<String, String>>{
    		//操作redis时选择的数据类型
            public RedisCommandDescription getCommandDescription() {
                return new RedisCommandDescription(RedisCommand.LPUSH);
            }
            //表示接受的数据中获取需要操作的redis的key值
            public String getKeyFromData(Tuple2<String, String> data) {
                return data.f0;
            }
            //表示接受的数据中获取需要操作的redis的value值
            public String getValueFromData(Tuple2<String, String> data) {
                return data.f1;
            }
        }
    
        /**
         * 结果为:
         * 192.168.189.128:6379> flushall
         * OK
         * 192.168.189.128:6379> lrange list_word 0 -1
         * 1) "ss"
         * 2) "rr"
         * 3) "ww"
         * 192.168.189.128:6379>
         */
    }

scala代码是现实
具体实践类:

package streaming

import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
import org.apache.flink.streaming.connectors.redis.RedisSink
import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig
import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}

object StreamingDemoSinkRedis {
  def main(args: Array[String]): Unit = {
    val env = StreamExecutionEnvironment.getExecutionEnvironment
    import org.apache.flink.api.scala._

    val text = env.socketTextStream("hadoop01",9000,'\n')
    val scala_data = text.map(w=>("l_word_scala",w))
    val config = new FlinkJedisPoolConfig.Builder().setHost("hadoop01").setPort(6379).build()
    val redisSinks= new RedisSink[Tuple2[String,String]](config,new MyRedisMapper)
    scala_data.addSink(redisSinks)
    env.execute("StreamingDemoSinkRedis")
  }
  class MyRedisMapper extends RedisMapper[Tuple2[String,String]]{
    override def getCommandDescription: RedisCommandDescription = {
      new  RedisCommandDescription(RedisCommand.LPUSH)
    }
    override def getKeyFromData(data: (String, String)): String = {
      data._1
    }
    override def getValueFromData(data: (String, String)): String = {
      data._2
    }
  }
}

Flink Redis集群Sink是将Flink流处理的结果写入Redis集群中的一种方式。Redis是一种常用的开源内存数据结构存储系统,具有高性能、高可用性和可扩展性的特点。 Flink是一个流计算框架,具有并行计算、分布式处理和容错性等特点。在Flink中,可以通过使用RedisSink来实现将计算结果写入Redis集群。RedisSink提供了将数据写入Redis的接口和配置信息。用户可以根据需求设置Redis的连接信息、数据类型以及序列化方式等。 在使用Redis集群Sink时,需要注意以下几点: 1. 连接配置:需要提供Redis集群的连接信息,包括IP地址、端口号、密码等。如果Redis集群中有多个节点,则需要提供其中一个节点的信息即可。 2. 数据类型:Redis支持多种数据类型,包括字符串、哈希表、列表、集合和有序集合等。根据需要将数据写入相应的数据类型中。 3. 序列化方式:数据在传输和存储时一般需要进行序列化,需要选择合适的序列化方式,如JSON、Avro或Protobuf等。 4. 批量写入:为了提高性能,可以考虑将数据批量写入Redis,而不是逐条写入。可以根据实际情况设置每次写入的数据量。 使用Flink Redis集群Sink可以实现高效、可靠地将Flink流处理的结果写入Redis集群,使得计算结果可以随时被其他系统或服务查询和使用。同时,Redis集群的高可用性和可扩展性也能保证数据的安全和可持续处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值