flume实时监控日志文件到hdfs

既然flume 操作 hdfs , 就需要对应的jar,就要到hadoop安装目录下的share目录下查找


使用winscp软件将jar文件考本到windows本地桌面上



 


 将上面jar文件拷贝到flume安装目录下的lib目录下

 


接下来写flume-hdfs.conf配置文件


切换到flume目录的job目录  cd     /usr/local/flume/job


创建flume-hdfs.conf文件     vim    flume-hdfs.conf


 

#name the components on this agent
a2.sources = r2
a2.sinks = k2
a2.channels = c2

# Describe/configure the source
a2.sources.r2.type = exec
a2.sources.r2.command = tail -F /tmp/haitao/hive.log
a2.sources.r2.bind = hadoop002
a2.sources.r2.shell = /bin/bash -c

# Describe the sink
a2.sinks.k2.type = hdfs
a2.sinks.k2.hdfs.path = hdfs://hadoop002:9000/flume/%Y%m%d/%H
#上传文件的前缀
a2.sinks.k2.hdfs.filePrefix = logs-haitao-
#是否按照时间滚动文件夹
a2.sinks.k2.hdfs.round = true
#多少时间单位创建一个新的文件夹
a2.sinks.k2.hdfs.roundValue = 1
#重新定义时间单位
a2.sinks.k2.hdfs.roundUnit = hour
#是否使用本地时间戳
a2.sinks.k2.hdfs.useLocalTimeStamp = true
#积攒多少个Event才flush到HDFS一次
#a2.sinks.k2.hdfs.batchSize = 1000
#设置文件类型,可支持压缩
a2.sinks.k2.hdfs.fileType = DataStream
#多久生成一个新的文件
a2.sinks.k2.hdfs.rollInterval = 60
#设置每个文件的滚动大小
a2.sinks.k2.hdfs.rollSize = 134217700
#文件的滚动与Event数量无关
a2.sinks.k2.hdfs.rollCount = 0
#最小冗余数
a2.sinks.k2.hdfs.minBlockReplicas = 1

# Use a channel which buffers events in memory
a2.channels.c2.type = memory
a2.channels.c2.capacity = 1000
a2.channels.c2.transactionCapacity = 100

# Bind the source and sink to the channel
a2.sources.r2.channels = c2
a2.sinks.k2.channel = c2

执行监控配置  

首先进入flume安装目录  cd /usr/local/flume

bin/flume-ng agent --conf conf/ --name a2 --conf-file job/flume-hdfs.conf


 


 

可以切换到hive日志保存的目录下   /tmp/用户名/    目录    ,我当前的目录是  /tmp/haitao

执行如下命令   echo "请请zhi jing  you you wo xin    " >> hive.log 

这样会手动的向hive.log保存信息

 


 


 


FR:徐海涛(hunk Xu)
QQ技术交流群:386476712

 

 

 

 

参考http://flume.apache.org/releases/content/1.9.0/FlumeUserGuide.html

 

FR:徐海涛(hunk Xu)
QQ技术交流群:386476712

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
16、Flume:是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统,可以将来自各种数据源的数据收集起来,并且将采集到的数据传输到目标存储系统中。 17、Kafka:是一个分布式的流处理平台,可以处理实时数据流,支持发布-订阅消息系统。 18、大数据处理过程包括:数据采集、数据存储、数据处理、数据分析和数据可视化等步骤。 19、Flume组成架构包括:Source、Channel和Sink三个组件。Source负责数据的输入和采集,Channel负责数据的缓存和存储,Sink负责数据的输出和传输。 20、利用Flume实时读取目录文件HDFS的步骤如下: 1)在Flume配置文件中配置Source为Spooling Directory Source,指定监控目录和文件类型; 2)配置Channel为Memory Channel,指定缓存大小; 3)配置Sink为HDFS Sink,指定目标HDFS路径和文件前缀; 4)启动Flume Agent,并且将配置文件传入; 5)将数据文件放入监控目录中,Flume Agent会自动将数据读取并且传输到HDFS中。 21、Kafka架构包括:Producer、Broker、Consumer和Zookeeper四个组件。Producer负责产生消息,Broker负责存储和分发消息,Consumer负责订阅和消费消息,Zookeeper负责协调和管理整个集群。 22、Spark的组件及其功能包括: 1)Spark Core:提供了Spark所有功能的基础,包括任务调度、内存管理、容错等; 2)Spark SQL:支持SQL查询和数据分析; 3)Spark Streaming:支持实时数据流处理; 4)MLlib:提供了各种机器学习算法; 5)GraphX:提供了图形计算功能。 23、Spark的特点及运行模式包括: 1)快速:使用内存计算,比Hadoop MapReduce快10倍以上; 2)易用:提供了高级API,支持Java、Scala、Python等编程语言; 3)灵活:支持批处理、实时处理和交互式查询; 4)分布式:可以在大规模集群上运行,支持水平扩展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值