redis集群使用HashMap优化键值存储结构提升存储性能

6 篇文章 0 订阅
4 篇文章 0 订阅

项目中遇到Spark Streaming吞吐量太低的问题,redis集群使用HashMap优化键值存储结构提升Spark Streaming吞吐量。

场景:
设备将运行报文发送到kafka,Spark Streaming对报文进行加工处理,生成6类不同报文信息以json字符串形式set进redis集群。

问题:
kafka消费速度跟不上。

分析:
对于1000万设备一个上报周期上报1000万条报文,极端情况下同时上报,Spark Streaming消费1000万条报文,生成6000万个键值对存储入redis集群。
优化思路,降低Spark Streaming操作redis的频率,降低key的数量。提升Spark Streaming吞吐量,提升redis集群的查询速度以及后续key的更新速度。计划使用HashMap结构将6类json报文的属性提取出来作为HashMap的field。

测试:
相同集群环境下set操作和hset操作均使用基于Lettuce的Spring data redis客户端。使用pipliene的方式进行命令提交。每批处理命令1000条。
set模式使用3个json报文共32个属性,hset模式使用一个相同32属性的Map。则set模式下存储报文量为hset模式下的3倍。

结果:

sethset速度提升
10万数量级场景1.3min(30万)51s(10万)34%
100万数量级场景1.3min(300万)51s(100万)27%
1000万数量级场景1.789hours(3000万)1.295hous(1000万)27%

结论:
使用HashMap结构降低redsi集群键值数量可以提升存储性能,提升Spark Streaming吞吐量。提升预估20%~30%,待现网验证,补充结果。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值