logstash安装及简单测试

背景

业务目的是能够分析nginx和apache每天产生的日志,对url、ip、rest接口等信息进行监控,并将数据发送到elasticsearch服务。

对比flume

不重复消费,数据不丢失

目前flume支持hdfs比较好(个人理解)

离线安装

先配置JAVA_HOME 必须java8以上

下载解压即可

标准输入输出

bin/logstash -e 'input { stdin {} } output { stdout{} }'

文件到标准输出

首先在logstash中mkdir conf & touch file-stdout.conf

vim file-stdout.conf
input {
    file {
        path => "/home/bingo/data/test.log"
        start_position => "beginning"
        ignore_older => 0
    }
}
output {
    stdout{}
}

最后启动
bin/logstash -f conf/file-stdout.conf 




#多文件  path => "/home/bingo/data/*.log"、
#多目录  path => "/home/bingo/data/*/*.log"

#参数说明
start_position:默认end,是从文件末尾开始解析
ignore_older:默认超过24小时的日志不解析,0表示不忽略任何过期日志

执行命令后会看到控制台输出log文件的内容

  • 此方式可以持续监控一个文件的输入

文件到文件

  • 启动方式和文件到标准输出相同,不同之处在于配置文件:
touch file-file.conf
vim file-file.conf

input {
    file {
        path => "/home/connect/install/data/test.log"
        start_position => "beginning"
        ignore_older => 0
    }
}
output {
    file {
        path => "/home/connect/install/data/test1.log"
        }
       stdout{
        codec => rubydebug
}
}


上游到elasticsearch

touch file-es.conf

vim file-es.conf

input {
  file {
    type => "flow"
    path => "/home/bingo/data/logstash/logs/*/*.txt"
    discover_interval => 5
    start_position => "beginning" 
  }
}

output {
  if [type] == "flow" {
    elasticsearch {
      index => "flow-%{+YYYY.MM.dd}"
      hosts => ["master01:9200", "worker01:9200", "worker02:9200"]
    }
  }  
}

上游到kafka

kafka到es


touch kafka-es.conf
vim kafka-es.conf

input {
        kafka {
               zk_connect => "master01:2181", "worker01:2181", "worker02:2181"
               auto_offset_reset => "smallest"
               group_id => "bdes_clm_bs_tracking_log_json"
               topic_id => "clm_bs_tracking_log_json"
               consumer_threads => 2
               codec => "json"
               queue_size => 500
               fetch_message_max_bytes => 104857600
        }
}

output {
        elasticsearch {
                hosts => ["A:9900","B:9900","C:9900"]
                document_type => "bs_tracking_log"
                #document_id => "%{[mblnr]}%{[mjahr]}"
                flush_size => 102400
                index => "clm"
                timeout => 10
        }
}

参考:Logstash 基础入门

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要在Linux上安装Logstash,您可以按照以下步骤操作: 1. 下载Logstash安装包,可以从官方网站或者其他可靠的下载站点获取。 2. 解压安装包到您想要安装的目录。 3. 配置Logstash的配置文件,包括输入、过滤和输出等。 4. 启动Logstash服务,可以使用命令行或者系统服务管理工具。 5. 测试Logstash是否正常工作,可以使用一些测试数据来验证Logstash是否正确地处理了数据。 需要注意的是,安装Logstash之前需要确保您的系统已经安装了Java运行环境。另外,Logstash的配置文件需要根据您的具体需求进行调整,以确保能够正确地处理数据。 ### 回答2: Logstash是一款用于数据处理的开源工具,可以将各种不同格式的数据从不同的来源采集、转换、过滤和输出。对于Linux系统,安装Logstash需要经过以下步骤: 1. 下载并安装Java环境。Logstash需要运行在Java环境中,因此需要先安装Java。可以在终端中输入以下命令进行安装: sudo apt-get install default-jre 2. 下载并安装Logstash包。在官网下载Logstash的最新版,解压并安装。以下命令将Logstash包下载到本地: wget https://artifacts.elastic.co/downloads/logstash/logstash-7.14.0.tar.gz 解压Logstash包: tar -xzvf logstash-7.14.0.tar.gz 3. 配置Logstash。可以在/etc/logstash目录中创建一个新的配置文件,例如myconfig.conf,并编辑它以指定需要采集、转换、过滤和输出的数据。以下是一个简单的配置示例,它从stdin输入接收数据并将其发送到stdout输出: input { stdin {} } output { stdout {} } 4. 启动Logstash。可以在命令行中输入以下命令来启动Logstash: cd logstash-7.14.0/bin/ ./logstash -f /etc/logstash/myconfig.conf 运行Logstash后,可以使用Ctrl+C键来停止它。 5. 配置Logstash以作为服务运行。为了更方便地管理Logstash,可以将它配置为作为服务运行。以下是在systemd下配置Logstash服务的命令: sudo /bin/systemctl daemon-reload sudo /bin/systemctl enable logstash.service sudo /bin/systemctl start logstash.service 以上是在Linux系统上安装Logstash的基本步骤。要注意的是,在配置Logstash时,需要注意采集和处理数据的输入和输出,以使其能够顺利地完成数据管道的工作。同时,应根据实际需求进行配置,以满足具体的业务需求,提高数据处理的效率和精度。 ### 回答3: Logstash是一个在开源社区中广泛使用的日志收集和处理工具。它能够从多种数据源中获取任意类型的数据,经过过滤和转换后,将其输出到各种目标数据存储中。在本文中,我们将讨论如何在Linux系统中安装Logstash。 步骤一:安装Java Logstash是基于Java编写的,因此必须先在系统中安装Java。打开终端,输入以下命令,安装Java: $ sudo apt-get install openjdk-8-jre 步骤二:下载和设置Logstash安装Logstash之前,我们需要先从官网下载Logstash工具。首先在Web浏览器中访问https://www.elastic.co/cn/downloads/logstash并选择适合自己系统的Logstash版本。 下载完成后,我们需要将下载的压缩包解压到本地。 $ tar xvf logstash-6.5.1.tar.gz 解压完成后,进入目录 logstash-6.5.1/bin,并启动Logstash: $ ./logstash -e 'input { stdin { } } output { stdout { } }' -e参数允许我们以命令行方式启动Logstash,它将会从标准输入(input)获取任何输入,并输出到标准输出(output)。因此,我们将在终端中看到输入的任何内容,并直接输出到屏幕中。 步骤三:配置Logstash 启动Logstash后,我们需要编辑配置文件,以将其与数据源进行连接。Logstash的配置文件通常存储在 /etc/logstash/conf.d 目录中。我们创建以下文件,来配置Logstash: $ sudo nano /etc/logstash/conf.d/apache.conf 输入以下内容: input { beats { port => 5044 } } filter { grok { match => { "message" => "%{COMBINEDAPACHELOG}" } } date { match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ] } } output { elasticsearch { hosts => ["localhost:9200"] } stdout { codec => rubydebug } } 该配置定位了数据输入端口 5044,并设置了数据格式过滤器。然后,将数据输出到Elasticsearch和标准输出流。 步骤四:启动Logstash服务 启动Logstash作为服务,以增强稳定性和自动化。通过以下命令启动Logstash: $ sudo systemctl start logstash 可以通过以下命令查看服务的状态: $ sudo systemctl status logstash 如果输出的状态显示“active (running)”表示服务运行正常。 此外,我们还可以使用以下命令开启自动启动: $ sudo systemctl enable logstash 以上就是Linux安装Logstash的流程。Logstash具有强大的数据采集能力,可以快速地获取和过滤数据,非常适合进行分布式系统数据分析和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值