java dataframe_Spark DataFrame为数据集空值

从MS SQL数据库导入数据时,可能存在空值 . 在Spark中,DataFrames能够处理空值 . 但是当我尝试将DataFrame转换为强类型数据集时,我收到编码器错误 .

这是一个简单的例子:

case class optionTest(var a: Option[Int], var b: Option[Int])

object testObject {

def main(args: Array[String]): Unit = {

import spark.implicits._

val df = spark.sparkContext.parallelize(Seq(input)).toDF()

val df2 = Seq((1, 3), (3, Option(null)))

.toDF("a", "b")

.as[optionTest]

df2.show()

}

}

以下是此案例的错误:

No Encoder found for Any

- field (class: "java.lang.Object", name: "_2")

- root class: "scala.Tuple2"

java.lang.UnsupportedOperationException: No Encoder found for Any

- field (class: "java.lang.Object", name: "_2")

- root class: "scala.Tuple2"

从DataFrame创建数据集时,建议的处理可为空值的方法是什么?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值