ELK部署

ELK服务部署

1. 官网下载对应版本的二进制压缩包
 

elasticsearch 官网下载地址:
https://www.elastic.co/cn/downloads/elasticsearch
elasticsearch 历史版本下载地址:
 https://www.elastic.co/cn/downloads/past-releases#elasticsearch

kinbana 官网下载地址:
https://www.elastic.co/cn/downloads/kibana
kinbana 历史版本下载地址:
https://www.elastic.co/cn/downloads/past-releases#kibana

logstash 官网下载地址:
https://www.elastic.co/cn/downloads/logstash
logstash 历史版本下载地址:
https://www.elastic.co/cn/downloads/past-releases

2. 解压、准备工作、启动ELK

elasticsearch.tar.gz文件解压

tar -zxvf 就可以啦
太基础的废话命令就不罗列啦,主要是提几个关键的细节的点
比如elasticsearch部署的时候需要注意:
1. 使用普通用户
2. 开启max_map_count
3. 设置对应普通用户limit.conf
1. useradd -d /data/es es &&echo es | passwd --stdin es
2. echo "vm.max_map_count=655360" >> /etc/sysctl.conf
3. echo "es soft nofile 655350" >> /etc/security/limits.conf && echo "es hard nofile 655350" >> /etc/security/limits.conf
sysctl -p 刷新一下另其生效

然后准备个对应的jdk配置个全局的环境变量:
JAVA_HOME=/opt/jdk1.8.0_65
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
追加至系统环境变量文件尾部即可或者普通用户的
/etc/profile
.bash_profile
.bashrc
然后给刷新一下环境变量或者exit退出用户重新登录即可刷新
登录普通用户记得带上杠表示带着普通用户的环境变量呢 su - es
source /etc/profile
当我使用elasticsearch-no-jdk-7.9.6.tar.gz版本包时,启动提示要找本地普通用户家目录下面的java
例如上面的es用户 elastic为解压包
/data/es/elastic/jdk/bin/java
配置了全局的环境变量 指定目录的opt jdk java都不行还要去找上面目录的java
此时我们可以懒得理他直接根据启动log错误信息解决即可啦
使用“小大招”直接软连接射过去就好啦
当然前提对应的elastic解压包目录要创建对应的log提示的路劲目录 不然软连接找不到上一层目录无法创建哒
mkdir -p /data/es/elastic/jdk/bin/
ln -sf /opt/jdk/java/bin/java /data/es/elastic/jdk/bin/

然后配置改吧改吧修改修改elasticsearch.yml文件
cat elasticsearch/config/elasticsearch.yml
cluster.name: pengge
#bootstrap.mlockall: true
thread_pool.search.size: 10
thread_pool.search.queue_size: 3000
thread_pool.bulk.size: 5
thread_pool.bulk.queue_size: 2000
thread_pool.index.size: 5
thread_pool.index.queue_size: 1500
node.name: node-pengge
cluster.initial_master_nodes: ["node-pengge"]
path.data: /data/es/elastic/data
path.logs: /data/elastic/logs
network.host: 192.168.108.8
http.port: 9200
transport.tcp.port: 9300
transport.tcp.compress: false
discovery.zen.ping.unicast.hosts: ["192.168.108.8", "192.168.108.9", "192.168.108.10"]

然后就可以启动es节点啦,上面实例yml配置文件是配置的三节点集群,多节点集群也是一样的道理逗号添加集群节点ip即可啦,简简单单部署那是十分的轻松啦
 ./elasticsearch &> esstart.log & && tail -f esstart.log
直接sh或者./启动二进制脚本&>将屏幕标准正确错误输出输出至本地目录的esstart.log命名的启动日志文件内,同时使用tail -f 观察es服务启动情况即可

下面附上一些基础的es查询语句:
命令行get方式查询,pengge为示例索引名称
curl 192.168.108.8:9200/_cat/indices
curl 192.168.108.8:9200/_cat/health
curl 192.168.108.8:9200/_cat/nodes
curl 192.168.108.8:9200/_cat/shards
curl 192.168.108.8:9200/_cat/allocation
curl 192.168.108.8:9200/pengge/_count
curl 192.168.108.8:9200/pengge/_search
kibana页面方式查询:
GET _cat/indices
GET _cat/health
GET _cat/nodes
GET _cat/shards
GET _cat/allocation
GET /pengge/_count
GET /pengge/_search


删除索引
DELETE pengge*
删除索引内的指定字段,一定注意删除字段是这个动作参数哦:_update_by_query
删除字段:@timestamp
POST /pengge/_update_by_query
{
  "script": {
    "inline": "ctx._source.remove('@timestamp')",
    "lang": "painless"
  },
  "query": {
    "bool": {
      "must": [
        {
          "exists": {
            "field": "@timestamp"
          }
        }
      ]
    }
  }
}

至此elasticsearch服务就简简单单的启动成功啦

至于kibana、logstash一样的道理简单解压./启动即可啦
不在废话叙述啦
简单配置个es 9200读取的节点就可以了如下:
[root@zabbix config]# egrep -v "#|^$" kibana.yml
server.port: 5601
server.host: "192.168.108.143"
elasticsearch.hosts: ["http://192.168.108.9:9200"]

./kibana &> start.log & && tail -f start.log
logstash的话主要就是为了针对log日志文件或者txt csv等源数据文件进行整理汇总切割推送给es从而在kibana展示,细节东西下篇文章进行讲解,本期内容就简简单单写写部署启动完事啦
logstash配置的job conf文件可以使用-t参数简单配置的字段语法是否正确如下:
[root@zabbix bin]# ./logstash -f job/csv-es-debug.conf -t
Sending Logstash logs to /data/kinbana/logstash7.8.1/logstash-7.8.1/logs which is now configured via log4j2.properties
[2021-03-09T15:24:03,282][WARN ][logstash.config.source.multilocal] Ignoring the 'pipelines.yml' file because modules or command line options are specified
[2021-03-09T15:24:05,485][INFO ][org.reflections.Reflections] Reflections took 46 ms to scan 1 urls, producing 21 keys and 41 values
Configuration OK
[2021-03-09T15:24:06,291][INFO ][logstash.runner          ] Using config.test_and_exit mode. Config Validation Result: OK. Exiting Logstash
完事就可以-f指定 & 放入后台进行运行使用可爱的logstash啦~

努力到无能为力,拼搏到感动自己~  加油!

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值