1.将mysql的数据通过JDBC连接读到本地
val jdbcDF: DataFrame = sQLContext.read.jdbc( url, tablename, columnName,//按照mysql的某一列进行分区 lowerBound, upperBound, numPartitions,//分区数 prop ) jdbcDF.write.parquet("E:\data\\Data")
2.用sparkSQL读取data文件变成datafream,调用rdd方法获取对应字段,转换BigDecimal数据类型为scala可计算的数据类型
转换代码如下
jdbcdf.map(i=>{
val SumNetPremium = scala.math.BigDecimal(i.getAs[java.math.BigDecimal]("SumNetPremium"))
})
3.这个数据类型即为scala中可操作的数据类型