问题导读: 1.如何配置分布式flume 2.master与node之间该如何配置,有什么异同? 3.启动命令是什么? 4.flume把数据插入hbase,该如何配置? ![]() 一、Flume-ng配置插入hdfs 1)简介 Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。 设计目标: (1) 可靠性 当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送。),Store on failure(当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。 (2) 可扩展性 Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展。其中,所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。 (3) 可管理性 所有agent和colletor由master统一管理,这使得系统便于维护。多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。 (4) 功能可扩展性 用户可以根据需要添加自己的agent,collector或者storage。此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(File,HDFS,HBase等)。 2)配置 之前配置过Hadoop和hbase,所以需要先将hadoop和hbase启动,才能将文件写入hdfs和hbase。 (hadoop-2.2.0和hbase-0.96.0安装可以参考:hadoop2.2完全分布式最新高可靠安装文档,hbase 0.96整合到hadoop2.2三个节点全分布式安装高可靠文档) 本次配置环境为两台装有centos 的测试集群。主机名为master的机器负责收集日志,主机名为node的机器负责日志的写入,本次配置的写入方式:写入普通目录,写入hdfs。 首先 1.下载flume-ng的二进制压缩文件。 地址:http://flume.apache.org/download.html。 2.下载好后,解压文件。 (1)首先编辑/etc/profile文件,在其中添加如下几行: 添加好之后记得运行$ souce /etc/profile命令使修改生效。 (2)在master的flume文件夹的conf目录中,新建一个flume-master.conf文件,内容如下: (3)在node机器上也将/etc/profile文件添加上面的配置。然后,在conf中新建一个flume-node.conf文件,修改如下: 在master上面运行命令: 在node上运行命令: 启动之后,就可以发现两者之间可以相互通信,master上面的文件就能发送到node上,修改master上的test文件,在后面追加内容时,node也可以接收到。 如果想要将内容写入hadoop,可以将node中的flume-node.conf文件做如下修改: 其中,hdfs://master:8089/hbase为hadoop的hdfs文件路径。 ![]() 二、Flume-ng将数据插入HBase-0.96.0 首先,修改node中flume文件夹下conf目录中的flume-node.conf文件(原配置参考上文),对其做如下修改: agent.sinks = k1 agent.sinks.k1.type = hbase agent.sinks.k1.table = hello agent.sinks.k1.columnFamily = cf agent.sinks.k1.column = col1 agent.sinks.k1.serializer = org.apache.flume.sink.hbase.SimpleHbaseEventSerializer agent.sinks.k1.channel = memoryChannel 不过和上文不同的是,这次要想得到成功结果就没那么简单了,由于依赖的版本问题。此处需要将flume的lib文件夹下的protobuf用Hadoop-2.2.0中的2.5.0版本替换,还需要用hadoop-2.2.0中的guava替换flume的lib文件夹下的guava,删除原来相应的jar文件。启动即可生效。 (注意:在最新的版本不要做这些了,有些错误详情看我的另一篇文章) flume-ng里面的SimpleHbaseEventSerializer只提供了最简单的数据插入hbase功能,如果还有其他需要,就得自己写HbaseEventSerializer类,在apache-flume-1.4.0-src/flume-ng-sinks/flume-ng-hbase-sink/src/main/java中定义自己的类,实现flume中的HbaseEventSerializer接口。一个简单的实例如下: publicclass MyHBaseSerializer implements HbaseEventSerializer { privatestaticfinal String[] COLUMNS = "column1,column2".split(","); privatestaticfinal String[] PARAMS = "col1,col2".split(","); privatebyte[] columnFamily = "cf".getBytes(); privatebyte[] content; @Override publicvoid configure(Context context) { } @Override publicvoid configure(ComponentConfiguration conf) { } @Override publicvoid initialize(Event event, byte[] columnFamily) { this.content = event.getBody(); this.columnFamily = columnFamily; } @Override public List<Row> getActions() { String string = Bytes.toString(content); String value1 = string.substring(0,string.length()/2); String value2 = string.substring(string.length()/2, string.length()); Map<String,String> map = Maps.newHashMap(); map.put(PARAMS[0], value1); map.put(PARAMS[1], value2); List<Row> actions = new LinkedList<Row>(); String rowKey = String.valueOf(System.currentTimeMillis()); Put put = new Put(Bytes.toBytes(rowKey)); for (int i = 0; i < COLUMNS.length; i++) { String value = map.get(PARAMS); if (value == null) value = ""; put.add(columnFamily, Bytes.toBytes(COLUMNS), Bytes.toBytes(value)); } actions.add(put); return actions; } @Override public List<Increment> getIncrements() { List<Increment> incs = new LinkedList<Increment>(); return incs; } @Override publicvoid close() { } } 该类实现的功能是将文件中的内容按行切分程两部分,分别插入列名为column1和column2的两列中,rowKey为当前时间。完成后将flume-ng代码重新编译打包。然后将flume-ng目录里面的lib文件夹的相应的jar文件替换。然后将上文中的agent.sinks.k1.serializer 值改为test..MyHBaseSerializer即可。其中test为包名。 |
Flume-ng将数据插入hdfs与HBase-0.96.0
最新推荐文章于 2022-11-11 11:26:15 发布