部分代码如下:
def main(args: Array[String]): Unit = {
Logger.getLogger("org").setLevel(Level.OFF)
Logger.getLogger("akka").setLevel(Level.OFF)
Logger.getRootLogger().setLevel(Level.ERROR) //这里是用来抑制一大堆log信息的.
val spark = SparkSession.builder
.appName("Intro").config("spark.master", "local")
.getOrCreate();
spark.sparkContext.setLogLevel("ERROR")
val hadoopConf = spark.sparkContext.hadoopConfiguration
hadoopConf.set("fs.hdfs.impl", classOf[org.apache.hadoop.hdfs.DistributedFileSystem].getName)
hadoopConf.set("fs.file.impl", classOf[org.apache.hadoop.fs.LocalFileSystem].getName)
import spark.implicits._
val rdd= spark.sparkContext.parallelize(List("------------先大致看下数据-----------------"))
rdd.collect().foreach(println)
就是上面代码的最后两句,这两句就可以像一般print语句一样来使用了.
注意,直接println是会被spark忽略的,并不会输出到控制台上面