Logstash与Kafka集成

63 篇文章 1 订阅
[size=medium]
在ELKK的架构中,各个框架的角色分工如下:
ElasticSearch1.7.2:数据存储+全文检索+聚合计算+服务端
Logstasch2.2.2:日志收集与分发推送
Kafka0.9.0.0:分布式高可靠消息队列+数据中转存储(失效期默认7天,可配置时间或大小来控制删除策略)
Kibana4.1.2:全文检索+查询+图形化页面展示+客户端

拓扑架构如下:
[/size]

[img]http://dl2.iteye.com/upload/attachment/0115/2822/63875e8a-3ec2-3f49-8b81-8830db573fa6.png[/img]

[size=medium]

本篇主要讲logstash与kafka的集成:
(1)logstash作为kafka的生产者,就是logstash收集的日志发送到kafka中
(2)logstash作为kafka的消费者,消费kafka里面的数据打印到终端


(一)安装kafka集群,请参考散仙上篇文章:
[url]http://qindongliang.iteye.com/blog/2278194[/url]
(二)安装logstash
这个非常简单,直接下载最新版的logstash,经测试logstash1.5.4有问题,不能正常安装插件
wget https://download.elastic.co/logstash/logstash/logstash-2.2.2.tar.gz

为了能够快速下载logstash的相关插件,然后修改logstash的代理
(方案一)
安装ruby的gem
yum -y install ruby rubygems

安装国内淘宝的代理源:
gem sources --remove http://rubygems.org/
gem sources -a https://ruby.taobao.org/
gem sources -l
[/size]

*** CURRENT SOURCES ***
https://ruby.taobao.org/

[size=medium]
(方案二)
修改logstash目录下的Gemfile里面的source的url为
[url]https://ruby.taobao.org/[/url]
然后就不用用方案一的方法了
最新版的logstash2.2支持修改Gemfile里面的地址为淘宝的镜像地址
使用的是最新版本2.2.2的logstash
[/size]

//安装logstash输出到kafka的插件:
bin/plugin install logstash-output-kafka
//安装logstash从kafka读取的插件:
bin/plugin install logstash-input-kafka


[size=medium]
logstash-consume-kafka.conf消费者配置
[/size]

input{
kafka{
//zk的链接地址
zk_connect=>"h1:2181,h2:2181,h3:2181/kafka"
//topic_id,必须提前在kafka中建好
topic_id=>'logstash'
//解码方式json,
codec => json
//消费者id,多个消费者消费同一个topic时,做身份标识
consumer_id => "187"
//消费者组
group_id=> "logstash"
//重新负载时间
rebalance_backoff_ms=>5000
//最大重试次数
rebalance_max_retries=>10
}
}

output{
stdout{
codec=>line
}
}


[size=medium]
procuder_kafka_es.conf生产者配置:
[/size]

input{
//监听log文件
file{
path=> ["/ROOT/server/logstash-2.2.2/t.log"]
}
}

output{
//输出端1=>Kafka
kafka{
bootstrap_servers=> 'h1:9092,h2:9092,h3:9092'
topic_id=> 'logstash'
}

//输出端2=>ElasticSearch
elasticsearch{
hosts=> ["192.168.1.187:9200","192.168.1.184:9200","192.168.1.186:9200"]
}

}


[size=medium]
如果想用Logstash读取kafka某个topic的所有数据,需要加上下面2个配置:
[/size]

auto_offset_reset => 'smallest'
reset_beginning => true

[size=medium]
但需要注意的是,如果是读取所有的数据,那么此时,对于kafka的消费者同时只能有一个,如果有多个
那么会报错,因为读取所有的数据,保证顺序还不能重复读取消息,只能使用一个消费者,如果不是
读取所有,仅仅读取最新传过来的消息,那么可以启动多个消费者,但建议消费者的数目,与该topic的
partition的个数一致,这样效果最佳且能保证partition内的数据顺序一致,如果不需要保证partition分区内数据
有序,可以接受乱序,那就无所谓了
[/size]


[size=medium]
参考资料

[url]http://bigbo.github.io/pages/2015/08/07/logstash_kafka_new/[/url]

[url]http://soft.dog/2016/01/08/logstash-plugins/[/url]

[url]http://www.rittmanmead.com/2015/10/forays-into-kafka-01-logstash-transport-centralisation/[/url]
[/size]
[b][color=green][size=large]
有什么问题 可以扫码关注微信公众号:我是攻城师(woshigcs),在后台留言咨询。
本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享,也是一个温馨的技术互动交流的小家园
[/size][/color][/b]
[img]http://dl2.iteye.com/upload/attachment/0104/9948/3214000f-5633-3c17-a3d7-83ebda9aebff.jpg[/img]
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值