pyspark 浅析
pyspark的scala也好, 还是pyspark也好, 它们的编程思想都是函数式编程, 关于函数式编程的解析可以看这篇文章:http://www.ruanyifeng.com/blog/2 ... al_programming.html
函数式编程只是返回新的值, 不修改原有的值, 所以在对RDD操作时一定要注意, 不要用对RDD操作以后, 引用了老的变量.
import pyspark...
转载
2019-11-18 15:39:48 ·
141 阅读 ·
0 评论