看了标题估计也能猜到, 因为spark写不下去了!!确实是这样的。实际生成环境中spark的好多处理都是建立在spark集群环境上的,需要Hadoop集群(数据转换存储等操作)来配合spark,所以还是从Hadoop再开始。