Flink任务获取yarn上的运行日志,腾讯大数据开发面试题

先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7

深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年最新大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

如果你需要这些资料,可以添加V获取:vip204888 (备注大数据)
img

正文

flink任务在yarn失败,需要从yarn的归档服务器当中获取运行日志用来排查异常原因,正在运行中的任务日志从当前运行的Node节点中读取,方便监控任务运行信息。

非运行状态的任务日志获取
//构建日志请求对象
ContainerLogsRequest request = new ContainerLogsRequest();
request.setAppId(report.getApplicationId());
request.setAppFinished(report.getYarnApplicationState().equals(YarnApplicationState.FINISHED));
Set<String> logs = new HashSet<>();
request.setLogTypes(logs);
request.setBytes(Long.MAX_VALUE);
request.setAppOwner(report.getUser());
 
//构建log聚合日志工厂类
LogAggregationFileControllerFactory fileControllerFactory = new LogAggregationFileControllerFactory(configuration);
LogAggregationFileController fileController = fileControllerFactory.getFileControllerForRead(report.getApplicationId(), report.getUser());
//获取日志信息
List<ContainerLogMeta> logMetas = fileController.readAggregatedLogsMeta(request);
 
//打印容器日志信息,并且将容器所有内容放入其中
logMetas.forEach(containerLogMeta -> {
    System.out.println(String.format("容器id:%s 节点id:%s", containerLogMeta.getContainerId(), containerLogMeta.getNodeId()));
    containerLogMeta.getContainerLogMeta().forEach(fileInfo -> {
        System.out.println(String.format("文件名称:%s,文件大小:%s bytes", fileInfo.getFileName(), fileInfo.getFileSize()));
        logs.add(fileInfo.getFileName());
    });
});
//读取日志
fileController.readAggregatedLogs(request, System.out);
运行中状态的任务日志获取
YarnConfiguration configuration = YarnClientUtil.buildConfig();
        YarnClientImpl client = YarnClientUtil.client(configuration);
        //获取yarn上app的状态
        ApplicationReport report = client.getApplicationReport(ApplicationId.fromString(appId));
 
        OkHttpClient okHttpClient = new OkHttpClient();
        okHttpClient.setConnectTimeout(3, TimeUnit.SECONDS);
        okHttpClient.setReadTimeout(15, TimeUnit.SECONDS);
 
        //获取当前任务的集群状态
        List<ApplicationAttemptReport> attempts = client.getApplicationAttempts(report.getApplicationId());
 
        //遍历集群,获取集群下当前容器的报告
        for (ApplicationAttemptReport attempt : attempts) {
            List<ContainerReport> containers = client.getContainers(attempt.getApplicationAttemptId());
            //获取当前容器下的日志列表
            for (ContainerReport containerReport : containers) {
                //构造获取容器下的日志文件请求
                Request logReq = new Request.Builder().url(String.join("/", new String[]{containerReport.getNodeHttpAddress(), "ws", "v1", "node", "containers"
                                , containerReport.getContainerId().toString(), "logs"}))
                        .get().header("Accept", "application/json").build();
                Call call = okHttpClient.newCall(logReq);
                Response response = call.execute();
                Map<String,List<ContainerLogFileInfo>> logType = new HashMap<>();
                if (response.isSuccessful()) {


**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注大数据)**
![img](https://img-blog.csdnimg.cn/img_convert/981d0fc01bf3ca84cfb7900bb6b527af.png)

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 7
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
作为一个大数据开发工程师,面试中可能会涉及到Flink的相关知识。下面是一些常见的问题和建议的答案,供你参考: 1. 请介绍一下Flink的基本概念和特点。 Flink是一个开源的流处理和批处理框架,具有低延迟、高吞吐量、Exactly-Once语义等特点。它支持事件时间和处理时间,并且可以在内存中保存状态。 2. Flink的数据流转换操作有哪些? Flink提供了一系列的数据流转换操作,如map、filter、reduce、keyBy、window等。这些操作可以用来对数据流进行转换、聚合和处理。 3. Flink的窗口是什么?它有哪些类型? 窗口是按照一定的条件对数据流进行切分和分组的机制。Flink支持基于时间或者基于数量的窗口。常见的窗口类型有滚动窗口、滑动窗口和会话窗口。 4. Flink的状态管理方式有哪些? Flink支持两种类型的状态管理方式:键控状态和操作符状态。键控状态是根据输入数据流中的键值对来维护状态,而操作符状态是全局共享的状态。 5. Flink如何实现容错性? Flink采用了事件时间和WAL(Write-Ahead-Log)机制来实现容错性。它会将数据流的元数据和状态信息持久化到可靠的存储系统中,以便在故障发生时进行恢复。 6. Flink的常见部署方式是什么? Flink可以以独立集群模式或者与Hadoop、Kubernetes等集成部署。它可以在YARN、Mesos、Kubernetes等资源管理器上运行。 7. Flink的水位线(Watermark)是什么作用? 水位线是用来处理事件时间乱序的机制。它可以告知Flink事件的最大延迟时间,以便在窗口计算中进行处理。 这些问题只是一些基本的问题,你还可以根据你自己的经验和实际情况进行深入的准备。祝你面试顺利!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值