前言
最近正进行离线服务上云工作,发现了不少社区bug,新同学问了很多关于hadoop、spark、hive等组件如何打patch
,这里简单梳理下
提示:以下是随身小记,操作步骤只供参考
一、说明
hadoop3.x面世以来,在联邦机制、router等方面确实解决不少以往版本的痛点和瓶颈,但是也有 a few of bug,下面就以TestTFileStreams
的bug修复为例来描述打patch。
二、操作步骤
1.问题展示
2.修复过程
- 社区找到问题对应的patch
- 将对应patch文件放置到项目src目录下
- 修复:
在本地执行 patch -p1 < HADOOP-16836-000.patch
修复前代码如下:
for (int nx = 0; nx < count; nx++, scanner.advance()) {
Assert.assertFalse(scanner.atEnd());