spark-submit到yarn上遇到的各种坑

spark-submit到yarn上遇到的各种坑1、对于sbt package稍微搬动了code的位置,又要重新下载lib,所以不要移动代码位置。后面没有搬动code,就没重新下载库了,而且每次package速度很快,1秒左右2、175MB大小的文件上传到hdfs一直卡住,思考原因:权限问题?路径问题?磁盘容量问题?后来就上传一个3KB的文件,边上传边googl
摘要由CSDN通过智能技术生成
spark-submit到yarn上遇到的各种坑

1、

对于sbt package

稍微搬动了code的位置,又要重新下载lib,所以不要移动代码位置。
后面没有搬动code,就没重新下载库了,而且每次package速度很快,1秒左右
2、

175MB大小的文件上传到hdfs一直卡住,思考原因:

权限问题?路径问题?磁盘容量问题?
后来就上传一个3KB的文件,边上传边google
发现有这样的消息:
一般hadoop集群的瓶颈都在网络方面。hadoop集群用百兆网卡你在逗我。。。另外交换机也得是千兆的
链接为:https://www.zhihu.com/question/21588815

所以,猜测交换机太慢,果然,这个交换机10兆的带宽,神坑

不得不吐槽,选科研project前好好考察设备比较好。

3KB的文件不到5s就上传好了
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值