需求
在实际的项目开发中,有时需要把数据实时的写入到 elasticsearch 中,那用 sparkstreaming 怎么实现这个需求呢?下面给出一个简单的示例:
简单的实现了一个 sparkstreaming 写入 es 的 demo,废话不多说,直接来看代码.
package spark
import kafka.{PropertiesScalaUtils, RedisKeysListUtils}
import kafka.streamingRedisHive.{dbIndex, kafkaStreams}
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.log4j.{Level, Logger}
import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, HasOffsetRanges, KafkaUtils, LocationStrategies}
import org.elasticsearch.spark.rdd.EsSpark
import redis.RedisPool
/**
* 历史价格曲线的数据写入到es;
*/
object writeToES {
def main(args: Array[String]):