- 博客(5)
- 资源 (27)
- 收藏
- 关注
原创 Spark相关参数
应用配置 spark.app.name spark任务应用名称,在SparkUI界面以及日志数据中使用 spark.driver.cores spark,driver进程使用的CPU core数量,只有在cluster模式下生效 spark.driver.maxResultSize spark设置driver所有partitions序列化结果最大大小(最大1G),如果超过这个值,会占用
2016-11-30 10:22:38 2978
原创 Spark Standalone模式部署
Spark可以在Mesos或者YARN集群管理平台运行,也可以使用spark的standalone(独立)部署模式,主要用于本机测试用。 安装部署Spark需要是编译后的版本,可以到spark官网下载http://spark.apache.org/downloads.html 解压开(部署之前需要准备JAVA环境,配置JAVA_HOME) 运行脚本: ./sbin/start-mast
2016-11-23 15:35:07 824
转载 Spark数据倾斜调优
调优概述 有的时候,我们可能会遇到大数据计算中一个最棘手的问题——数据倾斜,此时Spark作业的性能会比期望差很多。数据倾斜调优,就是使用各种技术方案解决不同类型的数据倾斜问题,以保证Spark作业的性能。 数据倾斜发生时的现象 1、绝大多数task执行得都非常快,但个别task执行极慢。比如,总共有1000个task,997个task都在1分钟之内执行完了,但是剩余两三
2016-11-20 11:04:52 526
原创 spark之RDD
Spark revolves around the concept of a resilient distributed dataset (RDD), which is a fault-tolerant collection of elements that can be operated on in parallel. There are two ways to create RDDs:
2016-11-04 14:25:59 702
转载 海量数据面试题整理
海量数据面试题整理 1. 给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url? 方案1:可以估计每个文件安的大小为50G×64=320G,远远大于内存限制的4G。所以不可能将其完全加载到内存中处理。考虑采取分而治之的方法。 s 遍历文件a,对每个url求取,然后根据所取得的值将url分别存储到1000个小文
2016-11-03 16:45:25 323
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人