ELK是指Elasticsearch + Logstash + Kibaba三个组件的组合。本文讲解一个基于日志文件的ELK平台的搭建过程,有关ELK的原理以及更多其他信息,会在接下来的文章中继续研究。
在这个系统中,Elasticsearch主要充当一个全文检索和分析引擎,Logstash是一款分布式日志收集系统,Kibana可以为这个平台提供可视化的Web界面。
一、环境准备
三台虚拟机:m000,m001,m002,操作系统版本为Ubuntu-14.04
Elasticsearch-2.3.2
Logstash-2.3.2
Kibana-4.5.1
JDK-1.7.0_79
在该系统中ELK的关系如下图所示:
二、各组件的部署
ELK的运行依赖于Java环境,JDK可自行安装,本节主要讲Elasticsearch,Logstash和Kibaba的安装和配置过程。
1、Elasticsearch
(1)elasticsearch
下载地址:https://www.elastic.co/downloads/elasticsearch
下载好后,上传到m000:/usr/local/elk路径下解压缩,设置/usr/local/elasticsearch软连接指向该路径。进入ES_HOME/config目录中编辑elasticsearch.yml文件。设置network.host: m000
,http.port: 9200
设置访问地址和端口号,否则不能在浏览器中访问。设置cluster.name: es_cluster
,node.name: m000
,这两个参数主要设置ES集群的集群名称,以及这台机器在集群中的名称。设置path.data: /usr/local/elasticsearch/data
,path.logs: /usr/local/elasticsearch/logs
,这两个参数主要设置ES存储data和log的路径。
配置好后启动输入ES_HOME/bin/elasticsearch
命令启动es(加入参数-d,es会在后台运行),正常启动如下图:
在另外一个命令窗口中检查启动状态,
也可在页面上查看,输入m000:9200,
经过上述操作检查无误后,可以将m000上的elasticsearch分发到m001和m002机器上,记得分发后修改各自的node.name
以及network.host
两个属性。网上很多关于Elasticsearch的安装中都说道,保持每台机器上的cluster.name
属性一致时,如果将各自的es服务都启动,系统会自动将cluster name相同的机器组成一个集群。但是在本次操作中发现,这个描述对Elasticsearch-2.3.3版本无效,集群需要手动指定。分别修改m000, m001, m002三台机器上的elasticsearch.yml文件,在其中加入discovery.zen.ping.unicast.hosts: ["m000", "m001", "m002"]
和discovery.zen.minimum_master_nodes: 2
参数后,将m000-003上的elasticsearch服务启动才能组成一个集群。
(2)head插件
Elasticsearch可以安装很多插件,接下来我们安装一个head插件,用于查看集群相关信息。往往大多数生产环境中服务器都不能联外网,所以我们采取下载安装的方式。
Head插件的下载地址:https://github.com/mobz/elasticsearch-head
下载后,在ES_HOME/plugins路径下解压缩,重命名成head,并删除压缩包。这样,在启动m000, m001和m002上的ES服务后,在http://m000:9200/_plugin/head/可以在页面上看到如下信息:
在这个页面上可以看到有三台机器,其中m000是master节点,在该页面上可以查看各节点的其他信息。
(3)marvel插件
Marvel是Elasticsearch的管理和监控工具,它提供了一个叫做Sense的交互式控制台供用户通过浏览器直接与Elasticsearch进行交互。有关这个插件的联网安装方式,网上也有很多介绍,本文仍然以Offline方式安装marvel插件。
下载以下三个文件:
- https://download.elastic.co/elasticsearch/release/org/elasticsearch/plugin/license/2.3.3/license-2.3.3.zip
- https://download.elastic.co/elasticsearch/release/org/elasticsearch/plugin/marvel-agent/2.3.3/marvel-agent-2.3.3.zip
https://download.elasticsearch.org/elasticsearch/marvel/marvel-2.3.3.tar.gz
将这三个文件上传到m000:/usr/local/elkhadoop@m000:/usr/local/elasticsearch/bin$ ./plugin install file:///usr/local/elk/license-2.3.3.zip
hadoop@m000:/usr/local/elasticsearch/bin$ ./plugin install file:///usr/local/elk/marvel-agent-2.3.3.zip
将m000:/usr/local/elasticsearch/plugins目录分发到m001和m002上。
第三个文件marvel-2.3.3.tar.gz会在Kibana部分用到。有关marvel的配置,可以参考官方网站:https://www.elastic.co/guide/en/marvel/current/configuration.html
关于使用,会在下面Kibana中讲解。
2、Logstash
下载地址:https://www.elastic.co/downloads/logstash
下载好后,上传到m000:/usr/local/elk路径下解压缩,设置/usr/local/logstash软连接指向该路径。
接下来用Logstash将Hadoop的yarn日志加载进来,进入LS_HOME,新建一个config_file目录存储自定义配置文件log.conf。
input { file { type => "hadoop-yarnlog" path => "/usr/local/hadoop/logs/yarn-hadoop-resourcemanager-m000.log" } } output { elasticsearch { hosts => "m000:9200" index => "logstash-%{type}-%{+YYYY.MM.dd}" template_overwrite => true } }
启动Logstash,LS_HOME/bin/logstash agent -f config_file/log.conf
在ES的head页面可以看到多了一个logstash-hadoop-yarnlog的文件,下图中前面两个是marvel相关数据。
可以在数据浏览,基本查询,复合查询中对该文件进行相关的查询操作。比如输入时间参数查看最近4分钟的日志文件:
更多的查询操作,可以在对Elasticsearch进一步学习中讲解到。
3、Kibana
下载地址:https://www.elastic.co/downloads/kibana
下载好后,上传到m000:/usr/local/elk路径下解压缩,设置/usr/local/kibana软连接指向该路径。进入KB_HOME/config文件夹,编辑kibana.yml文件,设置server.port: 5601
, server.host: "m000
, elasticsearch.url: "http://m000:9200"
。
启动kibaba,KB_HOME/bin/kibana
, 正常启动可以在控制台中看到如下信息:
在浏览器中输入m000:5601,可以看到如下页面:
看到上图中的界面,表示ELK已经正常配置了,点击Create–>Discover
可以看到加载的日志文件中的一些数据。
最后继续在Kibana中把marvel插件安装完成。输入KB_HOME/bin/kibana plugin --install marvel --url file:///usr/local/elk/marvel-2.3.3.tar.gz
如下图
启动kibana,浏览器访问m000:5601,点击选图中的红色方框,
在新窗口中选择Marvel,可以看到Elasticsearch集群的监控信息,
点击上图中的es_cluster,可以看到es_cluster集群中各节点详细监控信息,
有关Elasticsearch,Logstash,Kibana更多细节,后面继续补充。
来源:https://www.cnblogs.com/wuyida/p/6300240.html