Spark 之 日志框架 Flume 和 Kafka 使用场景

目录

  • 1、Spark 结合 Flume 的使用场景
  • 2、Spark 结合 Kafka 的使用场景

1、Spark 结合 Flume 的使用场景

       若实时数据流产出的频率不固定,比如有时候是一秒十万条,有时候是一小时一万条,可以选择将数据用nginx日志来表示,每隔一段时间将日志文件,放到flume监控的目录中,然后呢,spark streaming来计算。

2、Spark 结合 Kafka 的使用场景

      若实时数据流产出特别频繁,比如说一秒钟10w条,那就必须是kafka,分布式的消息缓存中间件,可以承受超高并发

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值