spark的persist算子使用 //设置Kryo序列化方式,占用内存小,默认使用java序列化 sc.getConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer") val rdd = sc.textFile("hdfs://linux01:8020/data/teacher.log") import org.apache.spark.storage.StorageLevel rdd.persist(StorageLevel.MEMORY_ONLY_SER) //只序列化到内存中