导入数据
使用POST方式批量导入数据,数据格式为json,url 编码使用data-binary导入含有index配置的json文件
步骤一:导入数据
[root@room9pc01 ~]# scp /var/ftp/elk/*.gz 192.168.1.66:/root/
[root@kibana ~]# gzip -d logs.jsonl.gz
[root@kibana ~]# gzip -d accounts.json.gz
[root@kibana ~]# gzip -d shakespeare.json.gz
[root@kibana ~]# curl -X POST "http://192.168.1.61:9200/_bulk" \
--data-binary @shakespeare.json
[root@kibana ~]# curl -X POST "http://192.168.1.61:9200/xixi/haha/_bulk" \
--data-binary @accounts.json
//索引是xixi,类型是haha,必须导入索引和类型,没有索引,要加上
[root@kibana ~]# curl -X POST "http://192.168.1.61:9200/_bulk" \
--data-binary @logs.jsonl
2)使用GET查询结果
[root@kibana ~]# curl -XGET 'http://192.168.1.61:9200/_mget?pretty' -d '{
"docs":[
{
"_index":"shakespeare",
"_type:":"act",
"_id":0
},
{
"_index":"shakespeare",
"_type:":"line",
"_id":0
},
{
"_index":"xixi",
"_type:":"haha",
"_id":25
}
]
}'
步骤二:使用kibana查看数据是否导入成功
1)数据导入以后查看logs是否导入成功
[root@se5 ~]# firefox http://192.168.1.65:9200/_plugin/head/
2)kibana导入数据
[root@kibana ~]# firefox http://192.168.1.66:5601
3)成功创建会有logstash-*
4)导入成功之后选择Discover
注意: 这里没有数据的原因是导入日志的时间段不对,默认配置是最近15分钟,在这可以修改一下时间来显示
5)kibana修改时间,选择Lsat 15 miuntes
6)选择Absolute
7)选择时间2015-5-15到2015-5-22
8)查看结果
9)除了柱状图,Kibana还支持很多种展示方式
10)做一个饼图,选择Pie chart
11)选择from a new serach
12)选择Spilt Slices
13)选择Trems,Memary(也可以选择其他的,这个不固定)
14)结果
15)保存后可以在Dashboard查看