Spark疑问3之spark 如何并行执行多个Job?

版权声明:本文为博主原创文章,欢迎转载和交流!源码交流:https://github.com/xubo245/ https://blog.csdn.net/bob601450868/article/details/51456158

使用Spark的时候一般都是一个application的Job串行执行,如何并行执行?
如何提高spark对计算资源(CPU和内存等)的利用率?
1M数据10个action或者更多的action,如果串行效率低,如何并行执行job?-star

没有更多推荐了,返回首页

私密
私密原因:
请选择设置私密原因
  • 广告
  • 抄袭
  • 版权
  • 政治
  • 色情
  • 无意义
  • 其他
其他原因:
120
出错啦
系统繁忙,请稍后再试