Spark基本配置的理解--从验证spark扩展性出发

最近在做Spark扩展性的测试,使用了CJ-Lin的 http://www.csie.ntu.edu.tw/~cjlin/papers/spark-liblinear/spark-liblinear.pdf 这篇论文,我想重新实现上面的Spark-LIBLINEAR扩展性实验,但是在自己做的时候却发现随着机器数目的增加,我的方法完全没有扩展性,下面是我的spark-env.sh实验配置文件:




我忽略了一点,这些配置是对应于YARN的分布模式,我自己的机器是standalone模式??

然后我再使用spark-shell spark-shell --master spark://master:7077 --jars "/home/gaopeng/spark-liblinear-1.95/spark-liblinear-1.95.jar" --driver-cores 4 --total-executor-cores 8 --driver-memory 8G --executor-memory 16G (这里的driver-cores其实是yarn中的,我可能用错了)

发现实验的结果还是完全没有扩展性。。。


然后查到了一篇基本配置的博客:http://database.51cto.com/art/201404/435697.htm ,才对配置模式有了大致清楚的了解。在此mark一下。

这边扯一下,关于spark-shell的理解,它其实就是一个application


起初我没有在读数据时显示分块,这导致实际执行时只有两个executor在运行:

val data = Utils.loadLibSVMData(sc, "/user/gaopeng/covtype")



后来,我显示地加了分partition的句子:

val data = Utils.loadLibSVMData(sc, "/user/gaopeng/covtype", 8)
发现不是2个executors了,而是每个executors都有tasks,但是分布很不均匀,而且有内存的只有3个executors, 这是一个待解决的问题



总之,需要对spark文档全面了解才能进行原因的分析。

下面的工作是:

1. 看完点击打开链接CSDN的Spark社区的翻译

2. 看完Spark官网的文档

3. 对实验进行验证,争取实现task的分布均匀。(主要针对小数据集,如covtype、webspam,大数据集可以实现均匀,如epsilon数据集)



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值