1)启动一个console consumer消费topic的数据,判断消费是否正常。
2)如果console consumer消费正常,就检查sparkstream程序。
2.1)sparkstreming 是基于时间片消费数据的。 看看时间片是否过小,最小的时间间隔,参考在0.5~2秒钟之间。可以适当放宽时间片的大小。
2.2)spark streaming虽然是按照时间片消费数据的,但是上一个批次的数据没有处理完,下一个批次也会继续处理,如果有很多批次的数据同时在处理。会拖垮集群,服务器的资源会使用频繁,导致很慢。
对接 kafka的 spark程序 程序可以正常运行 就是接受kafka的数据时很慢 ,怎么调优?
最新推荐文章于 2024-07-22 16:17:17 发布