Flume提供了大量的Sink,下面主要介绍HDFS Sink、Avro Sink、Thrift Sink、Kafka Sink、HBase Sink。
类型 | 说明 |
---|---|
HDFS Sink | 数据写入HDFS。 |
Logger Sink | 数据写入日志文件。 |
Avro Sink | 数据被转换成Avro Event,然后发送到配置的RPC端口上。 |
Thrift Sink | 数据被转换成Thrift Event,然后发送到配置的RPC端口上。 |
IRC Sink | 数据在IRC上进行回放。 |
File Roll Sink | 存储数据到本地文件系统。 |
Null Sink | 丢弃掉所有数据。 |
HBase Sink | 数据写入HBase数据库。 |
Morphline Solr Sink | 数据发送到Solr搜索服务器(集群)。 |
ElasticSearch Sink | 数据发送到Elastic Search搜索服务器(集群)。 |
Kite Dataset Sink | 写数据到Kite Dataset,试验性质的。 |
Custom Sink | 自定义Sink。 |
Hive Sink | 数据写入Hive。 |
Kafka Sink | 把数据写入Kafka Topic中。 |
HDFS Sink
HDFS Sink直接把Event数据写入Hadoop Distributed File System(HDFS)。HDFS Sink支持输出文本文件(text file)和序列文件(sequence file),同时还可以对数据进行压缩。数据文件可以根据固定时间间隔、文件大小或者Event数据数量创建。HDFS Sink需要Hadoop支持。
配置项 | 默认值 | 说明 |
---|---|---|