使用Spark 执行sql 命令
val schemas = StructType(
List(
//
StructField("id",LongTypes, true),
StructField("userid", LongTypes, true),
StructField("xzqnumber", StringType, true),
StructField("xzqname", StringType, true),
StructField("address", StringType, true) ,
StructField("longitude", doubleType,true
)
)
从oracle 进行数据导入写到Hive 中但是字段有问题,类型不匹配;
oracle 字段类型是这样子,但是用int,long 对应的类型都会报错;
最后去官网发现所有相应的类型匹配怎么调用
StructType saprk 官网解释
(谷歌的话,用翻译看一看就知道了)
所以spark 提示出现这个问题,字段不匹配,我们需要调用对应字段
DecimalType() --> DataTypes.createDecimalType()
TimestampType ---> DataTypes.TimestampType
基本匹配对了没就不会报错了
这样就是实现了rdd+schemas(StructType) 形成DataFrame
val df: DataFrame = spark.createDataFrame(rdd,schemas)