import org.apache.spark.sql.SparkSession
/**
* 读取csv格式的文件。
*/
object ReadCsvDataToDF {
def main(args: Array[String]): Unit = {
val session: SparkSession = SparkSession.builder()
.master("local[1]")
.appName("ReadCsvDataToDF")
.getOrCreate()
// 添加头
session.read.option("header", true)
.csv("T:/code/spark_scala/data/spark/csvdata.csv")
.show()
}
}
SparkSQL读取csv格式的数据加载DatFrame
最新推荐文章于 2022-08-30 10:22:12 发布