EFK实现GeoIP定位全球访客

9de7aa4e9c8fc83bcf7e645f88dfa2a3.gif

新钛云服已为您服务1289

f8df217a94318ae31634c9f599490eb8.gif

IP地理位置用于确定IP地址的物理位置,可被用于多种实际场景,包括内容个性化与流量分析等等。根据地理位置进行流量分析可帮助大家有效分析自己的用户群体,从而了解用户来自哪里、决定应用服务器的理想地理位置并明确掌握用户定位

本教程中,我们将共同了解如何利用Fluentd、Kafka、Logstash、Elasticsearch与Kibana配合GeoIP数据库,从而建立应用用户IP地址的可视化地理位置映射,目的效果图如下图所示:

1ebbba0cbfd867af17247e6863a0b4e7.png△访问IP地图

第一步:Fluentd收集nginx日志

#配置fluentd

[root@fluent ~]# vim /etc/td-agent/td-agent.conf

<source>

  @type tail

  path /var/log/nginx/access_json.log

  pos_file /var/log/nginx/access_json.log.pos

  tag nginx_json.access

  format json

  time_format %d/%b/%Y:%H:%M:%S %z

</source>

第二步:将Fluentd收集到的日志存放到kafka

使用kafka集群做缓存层,而不是直接将agent收集到的日志信息写入logstash节点,让整体结构更健壮。agent负责将收集到的数据写入kafka,logstash取出数据并处理。

#配置fluentd

[root@fluent ~]# vim /etc/td-agent/td-agent.conf

<match nginx_json.access>

  @type kafka2

  brokers 10.0.0.54:9092

  use_event_time true

  <buffer topic>

    @type file

    path /var/log/td-agent/buffer/td

    flush_interval 1s

  </buffer>

  <format>

    @type json

  </format>

  topic_key topic

  default_topic wordsendertest2

  required_acks -1

  compression_codec gzip

</match>

第三步:logstash从kafka中取出日志

Logstash 是一款强大的数据处理工具,它可以实现数据传输,格式处理,格式化输出,还有强大的插件功能,常用于日志处理。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值