PySpark:使用RDD转化为DataFrame时报错TypeError: Can not infer schema for type: <class ‘str‘>

Spark版本:V3.2.1

  前文介绍过说可以将Spark RDD转化为Spark DataFrame,具体可以参考博客:https://blog.csdn.net/yeshang_lady/article/details/89528090。这篇博客仅介绍再将RDD转化为DataFrame时需要注意的问题,从下面的代码开始:

from pyspark.sql.types import *
from pyspark.sql import SparkSession
from pyspark import SparkContext, SparkConf
import os
import pandas as pd
import graphframes

os.environ['SPARK_HOME'] ='/Users/sherry/documents/spark/spark-3.2.1-bin-hadoop3.2'
spark_conf = SparkConf().setAppName('Python_Spark_WordCount')\
            .setMaster('local[2]') 
sc = SparkContext(conf=spark_conf)
spark=SparkSession.builder.appName("rdd_to_df").getOrCreate()

nodes=sc.textFile(r'/Users/sherry/Downloads/nodes')
nodes_df=spark.createDataFrame(node1,['id'])

上述代码在执行到最后一条语句创建DataFrame时,会提示以下报错信息TypeError: Can not infer schema for type: <class ‘str’>。具体如下:
在这里插入图片描述
从提示的信息来看是DataFrame在创建时没能正确推断出schema,所以尝试在创建DataFrame时主动添加schema信息,具体如下:

nodes=sc.textFile(r'/Users/sherry/Downloads/nodes')
nodes_df=spark.createDataFrame(nodes,'id STRING')

这个时候需要顺利执行了,但是在nodes_df上执行行动时会接着报错,具体如下:

nodes_df.show()

其报错信息如下TypeError: StructType can not accept object ‘208’ in type <class ‘str’>(部分截图):
在这里插入图片描述
所以这个方案没有解决问题。回到最初,先来看看nodes这个RDD中的数据,具体如下:
在这里插入图片描述
从上述实验中可以看出,nodes的每一行都只有一个字符串元素(类型为str),而使用createDataFrame()创建DataFrame时每行元素都是List型,所以这里将nodes中的每个元素改成List型,顺利解决问题。具体如下:

nodes=sc.textFile(r'/Users/sherry/Downloads/nodes')
nodes_1=nodes.map(lambda x:[x]) #转化为List
nodes_2=nodes.map(lambda x:(x,)) #转化为tuple
print(nodes_1.take(5))
print(nodes_2.take(5))
n1_df=spark.createDataFrame(nodes_1,['id'])
n2_df=spark.createDataFrame(nodes_2,['id'])
n1_df.show(5)
n2_df.show(5)

其结果如下:
在这里插入图片描述
总结:
在使用RDD构建DataFrame时,RDD中每行元素必须List型或类List型。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PySpark 中,当你尝试从一个结构化数据源中读取数据,如果你没有为数据源指定 schemaPySpark 就会尝试自动推断数据的 schema。但是,如果数据中包含无法推断类型的数据,例如字符串类型的数据,PySpark 就会抛出 "TypeError: Can not infer schema for type: <class 'str'>" 错误。 为了解决这个问题,你可以手动为数据源指定 schema,或者使用 PySparkinferSchema() 函数。inferSchema() 函数可以自动推断数据的 schema,并将字符串类型的数据转换为字符串类型。你可以按照以下步骤使用 inferSchema() 函数: 1. 从数据源中读取数据,将数据存储在一个 RDD 中。 2. 使用 map() 函数将 RDD 中的每一行转换为一个 Row 对象。 3. 使用 inferSchema() 函数将 RDD 转换为 DataFrame,并指定 DataFrame 中每一列的名称。 以下是一个示例代码,演示了如何使用 inferSchema() 函数: ``` from pyspark.sql import SparkSession from pyspark.sql.types import StructType, StructField, StringType # 创建一个 SparkSession spark = SparkSession.builder.appName("InferSchemaExample").getOrCreate() # 从数据源中读取数据 rdd = spark.sparkContext.textFile("path/to/data") # 将 RDD 中的每一行转换为一个 Row 对象 row_rdd = rdd.map(lambda line: line.split(",")).map(lambda x: Row(col1=x[0], col2=x[1])) # 定义 DataFrameschema schema = StructType([StructField("col1", StringType(), True), StructField("col2", StringType(), True)]) # 使用 inferSchema() 函数将 RDD 转换为 DataFrame,并指定 DataFrame 中每一列的名称 df = spark.createDataFrame(row_rdd, schema=schema) # 显示 DataFrame 的内容 df.show() ``` 在这个示例中,我们首先从数据源中读取数据,并将数据存储在一个 RDD 中。接下来,我们使用 map() 函数将 RDD 中的每一行转换为一个 Row 对象。然后,我们定义了 DataFrameschema,并使用 inferSchema() 函数将 RDD 转换为 DataFrame,并指定 DataFrame 中每一列的名称。最后,我们显示了 DataFrame 的内容。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值