系统环境:CentOS 7
平台:Hadoop2.9
JAVA:JAVA1.8
在正式开始学习Flume之前,我相信各位都已经清楚了解HDFS到底是个什么了。在这里我们将HDFS简单地视为一个大硬盘,容量非常大的大硬盘,那么如何实现自动化地往这个硬盘中定期存入数据呢?Flume的功能就在于此。
Flume就是这样一个工具。
下面我将介绍在如何在HDFS的基础上应用Flume来达到日志文件的自动收集目的。
第一步:部署安装Flume
Flume需要JDK环境,因此需要先安装JDK并设置好系统环境。【这里不赘述了,因为能跑Hadoop自然有JDK环境】
我选择用二进制包解压安装。
Flume版本我选择的是1.8。官网下载地址是:http://mirrors.hust.edu.cn/apache/flume/1.8.0/
下载好 apache-flume-1.8.0-bin.tar.gz 文件后,通过Xftp或者其他ftp工具传到服务器端,我上传后的服务器路径在 /usr 目录。如图。