- 博客(2)
- 资源 (11)
- 问答 (1)
- 收藏
- 关注
转载 Spark RDD 创建
Spark RDD 创建、parallelize、makeRDD、textFile、hadoopFile、hadoopRDD、newAPIHadoopFile、newAPIHadoopRDD从集合创建RDDparallelizedef parallelize[T](seq: Seq[T], numSlices: Int = defaultParallelism)(impli
2017-04-16 16:33:10 452
转载 spark 与 hadoop的hdfs的连接(亲测有效)
出处::http://blog.csdn.net/oopsoom/article/details/24257981,目前Spark的Run on的Hadoop版本大多是hadoop2以上,但是实际上各个公司的生产环境不尽相同,用到2.0以上的公司还是少数。大多数公司还是停留在1代hadoop上,所以我就拿spark0.91 + hadoop0.20.2-cdh3u
2017-04-03 21:39:41 19716
U8125 SchemaDoc.chm
2020-04-15
06-助力AI生态布局,昇腾云服务器案例解读.pdf
2019-11-14
数据结构与算法分析pdf
2017-06-04
TA创建的收藏夹 TA关注的收藏夹
TA关注的人