import org.apache.spark.{
SparkConf, SparkContext}
object MyHome {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local[2]").setAppName("cust")
val sc = new SparkContext(conf)
val rdd = sc.textFile(
Spark读取文件并清洗流程
最新推荐文章于 2023-04-03 22:04:09 发布
该博客展示了如何使用Spark进行数据清洗和处理,以分析文档中出现的姓氏并找出前五的排名。数据包含姓名、地址等信息,通过Spark的处理,可以高效地从大量数据中提取关键信息。
摘要由CSDN通过智能技术生成