大数据开发岗面试复习30天冲刺 - 日积月累,每日五题【Day14】——Spark1_月累计算每日数据(4)

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

面试题04、Spark on Yarn 模式有哪些优点?
面试题05、谈谈你对container的理解?


![在这里插入图片描述](https://img-blog.csdnimg.cn/a389d648015d4cfdaf0d81ca1a8dbf74.png)


![在这里插入图片描述](https://img-blog.csdnimg.cn/0af0d0ca251c47a7a2fa8cf701f7f279.png)


以下答案仅供参考:


### 面试题 01、Spark为什么要持久化,一般什么场景下要进行persist操作?


为什么要进行持久化?  
 spark所有复杂一点的算法都会有persist身影,spark默认数据放在内存,spark很多内容都是放在内存的,非常适合高速迭代,1000个步骤只有第一个输入数据,中间不产生临时数据,但分布式系统风险很高,所以容易出错,就要容错,rdd出错或者分片可以根据血统算出来,如果没有对父rdd进行persist 或者cache优化,就需要重头做。   
 以下场景会使用persist  
 1)某个步骤计算非常耗时,需要进行persist持久化  
 2)计算链条非常长,重新恢复要算很多步骤,很好使,persist  
 3)checkpoint所在的rdd要持久化persist。checkpoint前,要持久化,写个rdd.cache或者rdd.persist,将结果保存起来,再写checkpoint操作,这样执行起来会非常快,不需要重新计算rdd链条了。checkpoint之前一定会进行persist。  
 4)shuffle之后要persist,shuffle要进性网络传输,风险很大,数据丢失重来,恢复代价很大  
 5)shuffle之前进行persist,框架默认将数据持久化到磁盘,这个是框架自动做的。  
 <https://blog.csdn.net/dkl12/article/details/80742498>


### 面试题02、介绍一下join操作优化经验?


join其实常见的就分为两类: map-side join 和 reduce-side join。  
 当大表和小表join时,用map-side join能显著提高效率。将多份数据进行关联是数据处理过程中非常普遍的用法,不过在分布式计算系统中,这个问题往往会变的非常麻烦,因为框架提供的 join 操作一般会将所有数据根据 key 发送到所有的 reduce 分区中去,也就是 `shuffle 的过程`。  
 造成大量的网络以及磁盘IO消耗,运行效率极其低下,这个过程一般被称为 reduce-side-join。如果其中有张表较小的话,我们则可以自己实现在 map 端实现数据关联,跳过大量数据进行 shuffle 的过程,运行时间得到大量缩短,根据不同数据可能会有几倍到数十倍的性能提升。


备注:这个题目面试中非常非常大概率见到,务必搜索相关资料掌握,这里抛砖引玉。


<https://blog.csdn.net/weixin_37136725/article/details/78989086>


### 面试题03、描述Yarn执行一个任务的过程?


1)客户端client向ResouceManager提交Application,ResouceManager接受Application并根据集群资源状况选取一个node来启动Application的任务调度器driver(ApplicationMaster)。  
 2)ResouceManager找到那个node,命令其该node上的nodeManager来启动一个新的 JVM进程运行程序的driver(ApplicationMaster)部分,driver(ApplicationMaster)启动时会首先向ResourceManager注册,说明由自己来负责当前程序的运行。   
 3)driver(ApplicationMaster)开始下载相关jar包等各种资源,基于下载的jar等信息决定向ResourceManager申请具体的资源内容。  
 4)ResouceManager接受到driver(ApplicationMaster)提出的申请后,会最大化的满足 资源分配请求,并发送资源的元数据信息给driver(ApplicationMaster)。  
 5)driver(ApplicationMaster)收到发过来的资源元数据信息后会根据元数据信息发指令给具体机器上的NodeManager,让其启动具体的container。   
 6)NodeManager收到driver发来的指令,启动container,container启动后必须向driver(ApplicationMaster)注册。  
 7)driver(ApplicationMaster)收到container的注册,开始进行任务的调度和计算,直到 任务完成。



> 
> 注意:如果ResourceManager第一次没有能够满足driver(ApplicationMaster)的资源请求  
>  ,后续发现有空闲的资源,会主动向driver(ApplicationMaster)发送可用资源的元数据信息以提供更多的资源用于当前程序的运行。
> 
> 
> 


<https://blog.csdn.net/liweihope/article/details/91358144>


### 面试题04、Spark on Yarn 模式有哪些优点?


1)与其他计算框架共享集群资源



> 
> (Spark框架与MapReduce框架同时运行,如果不用Yarn进行资源分配,MapReduce分到的内存资源会很少,效率低下);资源按需分配,进而提高集群资源利用等。
> 
> 
> 


2)相较于Spark自带的Standalone模式,Yarn的资源分配更加细致。  
 3)Application部署简化,例如Spark,Storm等多种框架的应用由客户端提交后,由Yarn负责资源的管理和调度,利用Container作为资源隔离的单位,以它为单位去使用内存,cpu等。  
 4)Yarn通过队列的方式,管理同时运行在Yarn集群中的多个服务,可根据不同类型的应用程序负载情况,调整对应的资源使用量,实现资源弹性管理。


### 面试题05、谈谈你对container的理解?


1)Container作为`资源分配和调度`的基本单位,其中封装了的资源如内存,CPU,磁盘,网络带宽等。 目前yarn仅仅封装内存和CPU  
 2)Container由ApplicationMaster向ResourceManager申请的,由ResouceManager中的资源调度器异步分配给ApplicationMaster   
 3)Container的运行是由ApplicationMaster向资源所在的NodeManager发起的,Container运行时需提供`内部执行`的任务命令


### 总结


今天我们复习了面试中常考的Hbase相关的五个问题,你做到心中有数了么?  
 其实做这个专栏我也有私心,就是希望借助每天写一篇面试题,督促自己学习,以免在面试期间尴尬!平时不流汗,面试多流泪!  
 对了,如果你的朋友`也在准备面试`,请将这个系列扔给他,  
 好了,今天就到这里,学废了的同学,记得在评论区留言:`打卡`。给同学们以激励。  


![img](https://img-blog.csdnimg.cn/img_convert/2b37aefb41f53eb2f9eeb863a1cea4e3.png)
![img](https://img-blog.csdnimg.cn/img_convert/d6a52710f749d4bf5ddd2acb8494bad2.png)
![img](https://img-blog.csdnimg.cn/img_convert/93e154f5a92ff416b9d9587e2da7385b.png)

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**

**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**

目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**

  • 7
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值