spark 从RDD createDataFrame 的坑

Scala:

import org.apache.spark.ml.linalg.Vectors

val data = Seq( (7, Vectors.dense(0.0, 0.0, 18.0, 1.0), 1.0), (8, Vectors.dense(0.0, 1.0, 12.0, 0.0), 0.0), (9, Vectors.dense(1.0, 0.0, 15.0, 0.1), 0.0) ) val df = spark.createDataset(data).toDF("id", "features", "clicked") 

Python:

from pyspark.ml.linalg import Vectors df = spark.createDataFrame([ (7, Vectors.dense([0.0, 0.0, 18.0, 1.0]), 1.0,), (8, Vectors.dense([0.0, 1.0, 12.0, 0.0]), 0.0,), (9, Vectors.dense([1.0, 0.0, 15.0, 0.1]), 0.0,)], ["id", "features", "clicked"]) 
如果是pair rdd则:

    stratified_CV_data = training_data.union(test_data) #pair rdd
    #schema = StructType([
    #   StructField("label", IntegerType(), True),
    #   StructField("features", VectorUDT(), True)])
    vectorized_CV_data = sqlContext.createDataFrame(stratified_CV_data, ["label", "features"]) #,schema) 

因为spark交叉验证的数据集必须是data frame,也是醉了!















本文转自张昺华-sky博客园博客,原文链接:http://www.cnblogs.com/bonelee/p/7805358.html,如需转载请自行联系原作者


### 回答1: 可以使用Spark SQL中的API将RDD转换为DataFrame。具体步骤如下: 1. 导入Spark SQL的API: ```scala import org.apache.spark.sql._ ``` 2. 创建SparkSession对象: ```scala val spark = SparkSession.builder().appName("RDD to DataFrame").getOrCreate() ``` 3. 将RDD转换为DataFrame: ```scala val rdd = sc.parallelize(Seq((1, "John"), (2, "Mary"), (3, "Mike"))) val df = spark.createDataFrame(rdd).toDF("id", "name") ``` 其中,rdd是一个包含元组的RDD,每个元组有两个元素,分别是id和name。createDataFrame方法将RDD转换为DataFrame,toDF方法用于给DataFrame的列命名。 4. 查看DataFrame的内容: ```scala df.show() ``` 输出结果如下: ``` +---+----+ | id|name| +---+----+ | 1|John| | 2|Mary| | 3|Mike| +---+----+ ``` ### 回答2: Spark是一个可靠和高效的集群计算系统,它提供了许多强大的数据处理工具,其中转换数据类型是其中一项重要工具。Spark可以将弹性分布式数据集(RDD)转换为数据框架(DataFrame),以便更方便地对数据进行管理和操作。 RDDSpark的中心概念,是一个由许多分区组成的分布式集合,可以并行运行函数。RDD对于大规模数据集的分析非常有用,但不够简单易用。Spark提供了DataFrame API,这个 API 基于 SQL 引擎 Spark SQL 实现,DataFrame API 允许开发人员使用 SQL 类语言来操作 RDD 中的数据,同时支持其他数据源如 Hive 或 Parquet 文件。 通过转换 RDDDataFrame,开发人员可以使用 DataFrame 的高效 API 对数据进行各种操作和转换,而不需要编写重复代码。例如,DataFrame API 允许开发人员使用一个简单的表达式计算函数,而不需要使用复杂的 RDD 转换操作,提高了代码的可读性和效率。 为了将 RDD 转换为 DataFrame,可以使用 SparkContext 的 createDataFrame 方法,该方法通过映射 RDD 中的元素到数据框架中来实现: ``` from pyspark.sql import SparkSession spark = SparkSession.builder.appName("MyApp").getOrCreate() rdd = spark.sparkContext.parallelize([(1, "John"), (2, "Jane"), (3, "Jim")]) df = spark.createDataFrame(rdd, ["id", "name"]) ``` 这个例子首先定义了一个 SparkSession 对象,然后创建了一个 RDD,并将其从元组列表转换为数据框架。最后,使用 SparkContext 的 createDataFrame 方法将 RDD 转换为 DataFrame。这里我们定义了两列,id 和 name。 在转换 RDDDataFrame 后,开发人员可以使用 DataFrame 的许多 API 方法来操作数据。例如,下面的代码演示了如何使用 DataFrame 进行选择、过滤、分组和聚合: ``` from pyspark.sql.functions import count # Select specific columns df.select("name").show() # Filter the dataframe df.filter(df["id"] > 1).show() # Group by 'id' and count names df.groupBy("id").agg(count("name").alias("count")).show() ``` 这个示例演示了 DataFrame API 的一些常见用法。使用 select 方法选择特定列,使用 filter 实现过滤,使用 groupBy 和 agg 进行分组和聚合。 总的来说,SparkRDD转换为DataFrame,使数据处理更加方便和灵活。DataFrame API 可以让开发人员直接使用 SQL 类语言,并筛选和转换数据,使大规模数据处理变得快捷和高效。开发人员可以使用spark.createDataFrame方法将RDD转换为DataFrame,整合数据的同时提高代码可读性和效率。 ### 回答3: Spark是一个分布式计算框架,支持使用不同的API对数据进行处理和分析。其中,RDD(弹性分布式数据集)是Spark中最基本的数据结构之一,它可以在不同的节点上进行并行化处理。但是,RDD的使用并不方便,特别是对于结构化数据的处理。针对这个问题,Spark引入了DataFrame的概念。 DataFrameSpark SQL中的一个概念,它是一个分布式的数据集合,支持结构化的数据处理和查询。类似于传统数据库中的表格,DataFrame可以包含多个列,每个列有特定的数据类型,并且支持类似于SQL的操作和查询。 由于RDDDataFrame的本质不同,它们之间的转换需要一定的处理。但是,Spark提供了一些API来进行这种转换。下面是一些示例: 1. 将RDD转换为DataFrame Spark提供了一个API可以将一个RDD转换为DataFrame。具体代码如下: val spark = SparkSession.builder().appName("RDD to DataFrame").master("local").getOrCreate() val sc = spark.sparkContext val rdd = sc.parallelize(Seq((1, "John"), (2, "Bob"), (3, "Alice"))) val df = rdd.toDF("id", "name") 在这个示例中,我们首先创建了一个SparkSession对象,然后创建了一个RDD,它包含三个元组,每个元组包含两个值。接下来,我们使用toDF方法将RDD转换为DataFrame,这个方法接收一个参数,即DataFrame的列名称。在这个示例中,我们为id和name两列分别设置了名称。 2. 将DataFrame转换为RDD 如果需要将一个DataFrame转换为RDD,则需要使用rdd方法。具体代码如下: val spark = SparkSession.builder().appName("DataFrame to RDD").master("local").getOrCreate() val sc = spark.sparkContext val df = spark.read.load("path/to/file") val rdd = df.rdd 在这个示例中,我们使用了SparkSession对象创建了一个DataFrame,然后使用rdd方法将DataFrame转换为RDD。需要注意的是,由于DataFrameRDD的本质不同,因此进行这种转换时可能会存在一些数据类型转换问题。 总之,使用DataFrame可以方便地处理结构化数据,而RDD则可以支持更加通用的数据处理操作。因此,在Spark中,需要根据实际的需求选择使用哪种数据结构来处理和分析数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值