Spark读写ES数据时遇到的问题总结

1. pom

(1). 依赖

        <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.11</artifactId>
            <version>${spark.version}</version>
            <scope>compile</scope>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.11</artifactId>
            <version>${spark.version}</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch-spark-20 -->
        <dependency>
            <groupId>org.elasticsearch</groupId>
            <artifactId>elasticsearch-spark-20_2.11</artifactId>
            <version>7.11.1</version>
        </dependency>

		 <dependency>
            <groupId>org.scala-lang</groupId>
            <artifactId>scala-library</artifactId>
            <version>${scala.version}</version>
            <scope>compile</scope>
        </dependency>

(2). 仓库

    <repositories>
        <repository>
            <id>sonatype-oss</id>
            <url>http://oss.sonatype.org/content/repositories/snapshots</url>
            <snapshots><enabled>true</enabled></snapshots>
        </repository>
    </repositories>

2. 问题一 mapping 映射问题

(1). 异常详情

使用spark读取es7 时因为es 中mapping映射的数据类型是Date导致的bug

org.elasticsearch.hadoop.rest.EsHadoopParsingException: Cannot parse value [2021/03/06 18:47:27] for field [time]

Caused by: java.lang.IllegalArgumentException: Invalid format: "2021/03/06 18:47:27" is malformed at "/03/06 18:47:27"

Caused by: org.elasticsearch.hadoop.EsHadoopIllegalArgumentException: Cannot invoke method public org.joda.time.DateTime org.joda.time.format.DateTimeFormatter.parseDateTime(java.lang.String)

(2). 解决方法

//需在代码中添加如下配置
 "es.mapping.date.rich" -> "false"

(3). 代码示例

	//通过以下方式设置或者map形式都可
    val conf: SparkConf = new SparkConf()
	  .set("es.mapping.date.rich","false")

3. 问题二 使用dataframe读取es失败

(1). 异常详情

使用sparksql 读取ES 数据时出现的异常
错误代码如下:

    //设置spark的一些参数
    val conf: SparkConf = new SparkConf()
      .setAppName("KafkaToES")
      .setMaster("local[*]")
      .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
      .set("spark.executor.processTreeMetrics.enabled", "false")
    //创建sparkseesion 对象
    val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()
    
	//es的一些配置
    val esMapConf: Map[String, String] = Map(
      //配置节点信息
      "es.nodes" -> "ip",
      "es.port" -> "9200",
      //配置es的索引
      "es.resource" -> "es索引",
      "es.mapping.date.rich" -> "false",
      "es.read.metadata.field" -> "_id",
      "es.nodes.wan.only" -> "false"
      //配置用户名和密码
      //"es.net.http.auth.user" -> "用户名",
      //"es.net.http.auth.pass" -> "密码"
    )
    //读取数据
    val esData: DataFrame = EsSparkSQL.esDF(spark, esMapConf)
    //输出一下
    esData.show(5)
Caused by: org.elasticsearch.hadoop.EsHadoopIllegalStateException: Position for '字段名(x.x的格式)' not found in row; typically this is caused by a mapping inconsistency

(2). 解决方法

改用EsSpark 去读取而非EsSparkSQL

	//以map的形式
    val value: RDD[(String, collection.Map[String, AnyRef])] = EsSpark.esRDD(sc, esMapConf)
    //以json的格式读取
    val value1: RDD[(String, String)] = EsSpark.esJsonRDD(sc, esMapConf)

(3). 代码示例

    //设置spark的一些参数
    val conf: SparkConf = new SparkConf()
      .setAppName("KafkaToES")
      .setMaster("local[*]")
      .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
      .set("spark.executor.processTreeMetrics.enabled", "false")
    //创建sparksession 对象
    val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()
    //创建sparkcontext 对象
	val sc: SparkContext = spark.sparkContext

	//es的一些配置
    val esMapConf: Map[String, String] = Map(
      //配置节点信息
      "es.nodes" -> "ip",
      "es.port" -> "9200",
      //配置es的索引
      "es.resource" -> "es索引",
      "es.mapping.date.rich" -> "false",
      "es.read.metadata.field" -> "_id",
      "es.nodes.wan.only" -> "false"
      //配置用户名和密码
      //"es.net.http.auth.user" -> "用户名",
      //"es.net.http.auth.pass" -> "密码"
    )
    //以map的形式读取
    val esData: RDD[(String, collection.Map[String, AnyRef])] = EsSpark.esRDD(sc, esMapConf)
    //输入10条
    esData.take(10).foreach(println(_))
    //以json的格式读取
    val esData2: RDD[(String, String)] = EsSpark.esJsonRDD(sc, esMapConf)
    //输入10条
    esData2.take(10).foreach(println(_))

4. 问题三 使用EsSpark的esRDD 方法读取后值的获取

(1). 异常详情

使用 EsSpark 的 esRDD 读取数据后返回的是嵌套map
因此获取具体值时需要不断的转类型, 并且不能用get 获取值,否则会爆异常,只能通过 getOrElse 或者直接 map(索引)的方式进行获取。

(2). 解决

  def main(args: Array[String]): Unit = {
    val map: Map[String, AnyRef] = Map(
      "aaa" -> Map("bbb" -> "ccc"),
      "ddd" -> Map("eee" -> Map("fff" -> "ggg")),
      "name" -> "zhang"
    )

    //方式一
    val map1: Map[String, AnyRef] = map("ddd").asInstanceOf[Map[String, AnyRef]]
    val map2: Map[String, AnyRef] = map1("eee").asInstanceOf[Map[String, AnyRef]]
    println(map2)

    //方式二
    val map3: Map[String, AnyRef] = map.getOrElse("ddd",null).asInstanceOf[Map[String, AnyRef]]
    println(map3)

    //方式三报错
    //val map4: Map[String, AnyRef] = map.get("ddd").asInstanceOf[Map[String, AnyRef]]
    //println(map4)
  }

5. 问题四 该错误是基于问题三出现的类型转换异常

(1). 错误详情及解决方式

使用 EsSpark 的 esRDD 读取map数据后, 返回的是可变 map 类型。
因此在使用asInstanceOf 进行类型强转的时候需要注意强转后也必须是 可变 Map类型 。

6. 问题五 关于ES数据写入问题

以下几点 flink 类似

  1. ES 只支持 json 和 map 两种方式进行数据的写入
  2. 在进行ES 数据写入时, 对日期数据最好先进行mapping映射如过需要自动创建索引建议在kibana 的 index management 中设置index Templates.
  3. ES 写入数据如果想要实现 es 的ecs 命名规范, 必须使用嵌套map 或者嵌套json 的方式, 例如: 在kibana中显示的字段名为 user.name , 字段值为 张三 , 那么你写入的数据格式必须是 Map("user" -> Map("name" -> "张三")) , json 类似。

7. 最后

  1. 暂时想到的只有这么多, 后续想起来再补充。
  2. 如果有遇到相关的问题, 欢迎在评论区留言探讨。
  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL 可以通过 Elasticsearch-Hadoop 插件来读写 Elasticsearch。该插件提供了一个 Elasticsearch 数据源,可以将 Elasticsearch 中的数据作为 Spark SQL 表进行查询和分析。 要使用 Elasticsearch-Hadoop 插件,需要在 Spark 配置文件中添加以下配置: ``` spark.es.nodes=<Elasticsearch 节点 IP> spark.es.port=<Elasticsearch 节点端口> ``` 然后,可以使用 Spark SQL 的 DataFrame API 或 SQL API 来读写 Elasticsearch 数据。以下是一些示例代码: ``` // 读取 Elasticsearch 中的数据 val df = spark.read.format("org.elasticsearch.spark.sql") .option("es.resource", "<Elasticsearch 索引>/<Elasticsearch 类型>") .load() // 将 DataFrame 中的数据写入 Elasticsearch df.write.format("org.elasticsearch.spark.sql") .option("es.resource", "<Elasticsearch 索引>/<Elasticsearch 类型>") .save() ``` 需要注意的是,Elasticsearch-Hadoop 插件的版本需要与 Elasticsearch 版本匹配。具体的版本对应关系可以参考官方文档。 ### 回答2: Spark SQL是一款强大的数据处理工具,可以实现对不同数据源的读取和处理,而Elasticsearch是一款流行的开源搜索引擎,在构建实搜索和分析系统非常有用。Spark SQL可以轻松地与Elasticsearch集成,方便地进行数据读取和写入操作。下面我们将详细介绍Spark SQL读写Elasticsearch的过程。 一、安装Spark Elasticsearch插件 在使用Spark SQL读写Elasticsearch之前,我们需要安装相应的插件以便于连接和处理数据。最常用的插件是elasticsearch-hadoop,我们可以使用以下命令进行安装: ``` bin/spark-shell --packages org.elasticsearch:elasticsearch-hadoop:7.10.2 ``` 其中,7.10.2是插件的版本。如果已经使用了其他版本的Spark,则需要使用相应的版本。 二、读取Elasticsearch数据 接下来我们将介绍如何使用Spark SQL从Elasticsearch中读取数据。首先,我们需要将Elasticsearch的数据加载到Spark SQL中,可以使用以下代码: ```scala import org.apache.spark.sql.SparkSession val spark = SparkSession .builder() .appName("ElasticsearchReader") .getOrCreate() val df = spark .read .format("org.elasticsearch.spark.sql") .option("es.nodes.wan.only", "true") .option("es.port", "9200") .option("es.nodes", "localhost") .load("index_name/_doc") ``` 其中,“org.elasticsearch.spark.sql”是Elasticsearch访问插件的格式,我们可以使用“option”配置来指定Elasticsearch的连接信息。这里我们使用“wan.only”选项将访问IP地址设置为公网IP,使用“port”选项将端口设置为9200,使用“nodes”选项将节点设置为本地主机。 最后,我们使用“load”方法将索引名和文档类型加载到Spark中。 三、写入数据到Elasticsearch 除了读取数据Spark SQL还可以将数据写入Elasticsearch。我们可以使用以下代码将Spark数据框中的数据写入Elasticsearch: ```scala import org.apache.spark.sql.SparkSession val spark = SparkSession .builder() .appName("ElasticsearchWriter") .getOrCreate() val df = Seq((1,"John"),(2,"Tom"),(3,"Lisa")) .toDF("id", "name") df.write .format("org.elasticsearch.spark.sql") .option("es.nodes.wan.only", "true") .option("es.port", "9200") .option("es.nodes", "localhost") .mode("append") .save("index_name/_doc") ``` 这里我们使用了一个简单的数据框,将数据写入Elasticsearch。首先,我们使用“toDF”方法将数据集转换为Spark数据框。我们然后使用“write”方法将数据框保存到Elasticsearch中。我们同样可以使用“option”配置来指定Elasticsearch的连接信息。最后,我们使用“mode”方法设置写入模式并使用“save”方法写入数据。 四、用Spark SQL进行Elasticsearch聚合分析 使用Spark SQL读写Elasticsearch之后,我们可以使用Spark SQL的聚合分析功能对数据进行处理和分析。例如,我们可以使用以下代码来计算所有文档的平均值: ```scala import org.apache.spark.sql.SparkSession val spark = SparkSession .builder() .appName("ElasticsearchAnalyzer") .getOrCreate() val df = spark .read .format("org.elasticsearch.spark.sql") .option("es.nodes.wan.only", "true") .option("es.port", "9200") .option("es.nodes", "localhost") .load("index_name/_doc") df.groupBy("name").mean("age") ``` 这里我们使用了GroupBy和mean方法,来计算所有文档的平均值。这块相信你们做学术翻译肯定没问题,不过我有个问题,Elasticsearch是支持SQL查询的,那么我们在使用Spark SQL连接Elasticsearch的候,就存在SQL的冲突吧,怎么解决呢? ### 回答3: Spark SQL是一种在Spark框架下的高性能、分布式、可扩展的SQL查询引擎。Spark SQL支持通过读写各种数据源来查询数据,其中包括Elasticsearch,这使得它成为在大规模数据上进行分析和探索的有力工具之一。 读取Elasticsearch数据源 在Spark SQL中,可以使用Elasticsearch连接器读取Elasticsearch数据源。连接器提供了从Elasticsearch读取数据的功能,并将其转换为RDD、DataFrame或Dataset。 在读取Elasticsearch数据,可以使用Elasticsearch Connector提供的选项和参数,例如索引和类型名称、查询条件、要检索的字段等。下面是一个使用连接器读取Elasticsearch数据源的示例: ```scala import org.elasticsearch.spark.sql._ val cfg = Map( "es.nodes" -> "localhost", "es.port" -> "9200", "es.index.auto.create" -> "true" ) // 配置选项 val df = spark.read.options(cfg).format("org.elasticsearch.spark.sql").load("INDEX_NAME/TYPE_NAME") df.show() ``` 在这个示例中,我们使用 `org.elasticsearch.spark.sql` 格式来指定数据源,然后使用 Spark SQL `read()` 方法读取 Index/Type 名称为 `index_name/type_name` 的 Elasticsearch 数据源。 写入Elasticsearch数据源 除了读取,Spark SQL也提供了将数据写入Elasticsearch的机制。可以使用与读取相同的Elasticsearch连接器来写入数据。以下是一个使用连接器将数据写入Elasticsearch的示例: ```scala import org.elasticsearch.spark.sql._ val cfg = Map( "es.nodes" -> "localhost", "es.port" -> "9200", "es.index.auto.create" -> "true" ) // 配置选项 // 创建一个 DataFrame 对象 val data = Seq( ("1", "John"), ("2", "Jane"), ("3", "Bob") ).toDF("id","name") data.write.options(cfg).format("org.elasticsearch.spark.sql").mode("overwrite").save("INDEX_NAME/TYPE_NAME") ``` 在这个示例中,我们首先创建一个 DataFrame 对象 `data`,然后使用与读取相同的连接器来写入数据到 Index/Type 名称为 `index_name/type_name` 的 Elasticsearch 数据源。 关于Spark SQL和Elasticsearch的更多信息和示例,可以参见官方文档和社区资源。总之,使用Spark SQL连接Elasticsearch是一种强大而灵活的方法,可以为分析和数据挖掘等场景提供很大的帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值