[hadoop+spark+python]大数据实战随手笔记
1.提交任务
指令(我配置了spark-submit的环境变量)spark-submit --class org.apache.spark.examples.SparkPi --master spark://192.168.12.233:7077 --executor-memory 10G --total-executor-cores 10 fielname
逐条解释如下:
(1)–class
原创
2017-08-08 14:44:17 ·
1582 阅读 ·
0 评论