2024年大数据最新0301taildir-source报错-flume-大数据(2)

a1.sources.r1.type = TAILDIR
a1.sources.r1.filegroups = f1
a1.sources.r1.filegroups.f1 = /opt/module/applog/log/app.*
a1.sources.r1.positionFile = /export/server/flume/taildir_position.json

#配置channel
a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.kafka.bootstrap.servers = node1:9092,node2:9092
a1.channels.c1.kafka.topic = topic_log01
a1.channels.c1.parseAsFlumeEvent = false

#组装
a1.sources.r1.channels = c1

* 原因就是在创建positionFile的时候父目录已存在
* 场景2:我们生成的日志文件app.log 每经过一天会按照日期重命名文件,然后生成新的app.log,此时flume会重新采集所有的日志信息,导致信息重复采集2次。
* **Taildir 说明:** Taildir Source 维护了一个 json 格式的 position File,其会定期的往 position File中更新每个文件读取到的最新的位置,因此能够实现断点续传。Position File 的格式如下:

 

{“inode”:2496272,“pos”:12,“file”:"/opt/module/flume/files/file1.t

xt"}

{“inode”:2496275,“pos”:12,“file”:"/opt/module/flume/files2/log.t

xt"}

* 而flume会同时判断Inode和file来确定是否同一文件

 注:Linux 中储存文件元数据的区域就叫做 inode,每个 inode 都有一个号码,操作系统

 用 inode 号码来识别不同的文件,Unix/Linux 系统内部不使用文件名,而使用 inode 号码来

 识别文件。


### 3 解决


场景1解决方案有两种:


1. 既然是创建父目录已存在,我们可以吧positionFile位置重新配置。
2. 修改源代码,我们通过源代码找下处理逻辑,下载1.9.0版本的flume源代码,官网地址:<https://archive.apache.org/dist/flume/>,找到TailSource 170行

 

@Override
public synchronized void configure(Context context) {
String fileGroups = context.getString(FILE_GROUPS);
Preconditions.checkState(fileGroups != null, "Missing param: " + FILE_GROUPS);

filePaths = selectByKeys(context.getSubProperties(FILE_GROUPS_PREFIX),
                         fileGroups.split("\\s+"));
Preconditions.checkState(!filePaths.isEmpty(),
    "Mapping for tailing files is empty or invalid: '" + FILE_GROUPS_PREFIX + "'");

String homePath = System.getProperty("user.home").replace('\\', '/');
positionFilePath = context.getString(POSITION_FILE, homePath + DEFAULT_POSITION_FILE);
Path positionFile = Paths.get(positionFilePath);
try {
  // 此处创建父目录,如果存在报错
  Files.createDirectories(positionFile.getParent());
} catch (IOException e) {
  throw new FlumeException("Error creating positionFile parent directories", e);
}
headerTable = getTable(context, HEADERS_PREFIX);
batchSize = context.getInteger(BATCH_SIZE, DEFAULT_BATCH_SIZE);
skipToEnd = context.getBoolean(SKIP_TO_END, DEFAULT_SKIP_TO_END);
byteOffsetHeader = context.getBoolean(BYTE_OFFSET_HEADER, DEFAULT_BYTE_OFFSET_HEADER);
idleTimeout = context.getInteger(IDLE_TIMEOUT, DEFAULT_IDLE_TIMEOUT);
writePosInterval = context.getInteger(WRITE_POS_INTERVAL, DEFAULT_WRITE_POS_INTERVAL);
cachePatternMatching = context.getBoolean(CACHE_PATTERN_MATCHING,
    DEFAULT_CACHE_PATTERN_MATCHING);

backoffSleepIncrement = context.getLong(PollableSourceConstants.BACKOFF_SLEEP_INCREMENT,
    PollableSourceConstants.DEFAULT_BACKOFF_SLEEP_INCREMENT);
maxBackOffSleepInterval = context.getLong(PollableSourceConstants.MAX_BACKOFF_SLEEP,
    PollableSourceConstants.DEFAULT_MAX_BACKOFF_SLEEP);
fileHeader = context.getBoolean(FILENAME_HEADER,
        DEFAULT_FILE_HEADER);
fileHeaderKey = context.getString(FILENAME_HEADER_KEY,
        DEFAULT_FILENAME_HEADER_KEY);
maxBatchCount = context.getLong(MAX_BATCH_COUNT, DEFAULT_MAX_BATCH_COUNT);
if (maxBatchCount <= 0) {
  maxBatchCount = DEFAULT_MAX_BATCH_COUNT;
  logger.warn("Invalid maxBatchCount specified, initializing source "
      + "default maxBatchCount of {}", maxBatchCount);
}

if (sourceCounter == null) {
  sourceCounter = new SourceCounter(getName());
}

}

 ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/fea36abce2d8400e9bd07b195ced6bca.png#pic_center)


可以在创建父目录之前检测是否已存在,如果已存在,直接跳过创建即可,修改try代码块中内容如下



boolean exists = Files.exists(positionFile.getParent());
if (!exists)
Files.createDirectories(positionFile.getParent());


maven打包替换flume/lib/下 flume-taildir-source-1.9.0.jar 如图所示:![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/1412feca802c45a3af4eb034156e797c.png#pic_center)


重新运行,正常启动,如下图日志所示:![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/4975dd6399a64eac8feccc63cf8011b0.png#pic_center)


kafka中新接收的数据如下图所示:![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/f6133495c165467aaf57ec0d7e660cd1.png#pic_center)


场景2解决方案 把TailFile如下代码



public boolean updatePos(String path, long inode, long pos) throws IOException {
if (this.inode == inode && this.path.equals(path)) {
setPos(pos);
updateFilePos(pos);
logger.info("Updated position, file: " + path + ", inode: " + inode + ", pos: " + pos);
return true;
}
return false;
}

// 修改为
public boolean updatePos(String path, long inode, long pos) throws IOException {
if (this.inode == inode) {
setPos(pos);
updateFilePos(pos);
logger.info("Updated position, file: " + path + ", inode: " + inode + ", pos: " + pos);
return true;
}
return false;
}

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

数据知识点,真正体系化!**

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 22
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值