Apache Spark 2.4 内置图像数据源介绍

Apache Spark 2.3 提供了 ImageSchema.readImages API(参见 Microsoft 的这篇文章),该 API 最初是在 MMLSpark 库中开发的。在 Apache Spark 2.4 中,这个 API 更容易使用,因为它现在是一个内置的数据源。使用图像数据源,您可以从目录加载图像并获取具有单个图像列的DataFrame。本文将介绍什么是图像数据源,并介绍如...
摘要由CSDN通过智能技术生成

Apache Spark 2.3 提供了 ImageSchema.readImages API(参见 Microsoft 的这篇文章),该 API 最初是在 MMLSpark 库中开发的。在 Apache Spark 2.4 中,这个 API 更容易使用,因为它现在是一个内置的数据源。使用图像数据源,您可以从目录加载图像并获取具有单个图像列的DataFrame。本文将介绍什么是图像数据源,并介绍如何使用它。

图像导入

让我们来看看如何通过图像数据源将图像读入 Spark。在 PySpark 中,你可以通过以下方式导入图像:

image_df = spark.read.format("image").load("/path/to/images")

Scala、Java 以及 R 等语言里面的使用和这个类似。这里的路径可以是嵌套目录结构(例如,使用 /path/to/dir/** 之类的路径);也可以是一些带有分区目录的路径(比如 /path/to/dir/date=2018-01-02/category=automobile),这时我们可以利用分区发现( partition discovery)功能。

图像模式

图像加载之后其类型是 DataFrame ,其中包含一个名为 image 的列。它是一个结构类型(struct-type)列,包含以下字段:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Apache Spark 2.4 中提供了许多解决复杂数据类型的内置函数和高阶函数。其中,内置函数包括数组函数、结构体函数、日期时间函数、字符串函数等,可以方便地对复杂数据类型进行操作和处理。高阶函数则可以将函数作为参数传递给其他函数,实现更加灵活的数据处理。 例如,数组函数包括 explode、array_contains、array_distinct 等,可以对数组类型的数据进行拆分、查找、去重等操作。结构体函数包括 struct、getField、withField 等,可以对结构体类型的数据进行创建、获取、修改等操作。日期时间函数包括 year、month、day、hour、minute、second 等,可以对日期时间类型的数据进行提取和转换。字符串函数包括 concat、substring、trim、regexp_replace 等,可以对字符串类型的数据进行拼接、截取、去空格、替换等操作。 高阶函数包括 map、filter、reduce、fold 等,可以对数据集进行映射、过滤、聚合等操作。例如,map 函数可以将一个函数应用于数据集中的每个元素,返回一个新的数据集;filter 函数可以根据指定的条件过滤数据集中的元素,返回一个新的数据集;reduce 函数可以将数据集中的元素进行聚合,返回一个单一的值;fold 函数可以对数据集中的元素进行聚合,并指定一个初始值,返回一个单一的值。 总之,Apache Spark 2.4 中提供了丰富的内置函数和高阶函数,可以方便地对复杂数据类型进行操作和处理,提高数据处理的效率和灵活性。 ### 回答2: Apache Spark是一款非常流行的大数据处理框架,而在该框架的最新版本Apache Spark 2.4中,主要更新了复杂数据类型的内置函数和高阶函数,以帮助用户更加方便地进行数据分析和处理。 首先,Apache Spark 2.4 中加入了多个新的内置函数,如array_contains、map_from_arrays、map_keys、map_values和posexplode等,用于处理不同的复杂数据类型。 array_contains函数用于判断一个数组是否包含某个指定元素,它很容易地就能来检查一个数据集中是否具有某些特定的值。而map_from_arrays、map_keys和map_values等函数则用于对一个Map类型的数据集进行操作,例如将一些key数组转换成一个map,或者将一个map的值集返回成一个数组等。 此外,Apache Spark 2.4版本还增加了许多高阶函数。高阶函数是使用其他函数作为参数的函数,因此通常具有更强的灵活性和适应性。一些常用的高阶函数,如aggregate、foldLeft、reduce、foreach和flatMap等,都能在Spark中得到很好的支持。 其中,aggregate函数用于将数据集中的每条记录与一个给定的初始值进行组合,然后再用一个给定的函数进行聚合。例如,它可以被用于求数据集中的最大值、最小值和平均值等等。 与此相似,foldLeft函数和reduce函数都可以用来对数据集中的每个元素进行操作,但它们的实现方式略有不同。foldLeft函数还可以提供一个序列化的初始值,并将结果与初始值合并以产生最终结果。而reduce函数则使用指定的函数将所有元素逐一聚合起来,得到一个最终的输出结果。 总之,Apache Spark 2.4中新增的这些内置函数和高阶函数,为用户提供了丰富的功能和更加灵活的选项,使得Spark在处理各种类型的数据时更加方便和高效。 ### 回答3: Apache Spark 2.4是一个强大的大数据分析和处理引擎,它通过内置的函数库和高阶函数来解决复杂数据类型的处理问题。这些函数使得对非结构化数据或半结构化数据的查询和分析变得容易和高效。 Apache Spark 2.4内置的函数库支持各种复杂数据类型,包括结构化数据(如JSON或XML),图形数据(如社交网络)和空间数据(如地图数据)。对于每种数据类型,Spark都提供了一组专门的函数来解决常见的数据操作问题。例如,Spark提供了大量的JSON函数来解析和查询JSON数据,这些函数可以方便地提取某个字段或值,进行集合操作,或者转换为其他数据格式。 除了内置的函数库之外,Apache Spark 2.4还支持高阶函数。高阶函数是指一个函数可以接受另一个函数作为参数或返回一个函数作为结果。这种函数式编程风格可以使得代码更加简洁和灵活。例如,Spark提供了flatMap、map和filter等高阶函数,可以方便地进行复杂的数据转换和筛选。此外,Spark还支持用户定义的函数(UDF),可以让用户根据自己的业务逻辑定义自己的函数,从而获得更高的灵活性和可定制性。 总体而言,Apache Spark 2.4提供了强大的内置函数和高阶函数,可以方便地解决各种复杂数据类型的处理问题。这些函数可以提高数据分析和处理的效率,使得数据科学家和开发人员能够更快地分析和挖掘数据价值,实现更加智能和高效的数据处理系统。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值