百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

Spring Cloud + ELK 统一日志系统搭建

csdh11 2025-04-08 13:14 17 浏览

ELK 统一日志系统搭建

ELK 是 Elasticsearch、Logstash、Kibana 得简称,这三者是核心套件,但并非全部。

Elasticsearch 是实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能;是一套开放 REST 和 JAVA API 等结构提供高效搜索功能,可扩展的分布式系统。它构建于 Apache Lucene 搜索引擎库之上。

Logstash 是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它可以从许多来源接收日志,这些来源包括 syslog、消息传递(例如 RabbitMQ)和 JMX,它能够以多种方式输出数据,包括电子邮件、websockets 和 Elasticsearch。

Kibana 是一个基于 Web 的图形界面,用于搜索、分析和可视化存储在 Elasticsearch 指标中的日志数据。它利用 Elasticsearch 的 REST 接口来检索数据,不仅允许用户创建他们自己的数据的定制仪表板视图,还允许他们以特殊的方式查询和过滤数据

项目使用版本(基于 Linux 系统搭建):

  • elasticsearch-7.3.0

下载地址:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.3.0-linux-x86_64.tar.gz

  • kibana-7.3.0

下载地址:https://artifacts.elastic.co/downloads/kibana/kibana-7.3.0-linux-x86_64.tar.gz

  • logstash-7.3.0

下载地址:https://artifacts.elastic.co/downloads/logstash/logstash-7.3.0.tar.gz

Elasticsearch 搭建

下载 Elasticsearch

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.3.0-linux-x86_64.tar.gz

解压 Elasticsearch

tar -zxvf elasticsearch-7.3.0-linux-x86_64.tar.gz

修改 Elasticsearch 的配置文件

cd elasticsearch-7.3.0/config/
vim elasticsearch.yml

由于默认的配置文件全注释掉了,所以直接在文件末尾添加。 注意:不同的版本对应的配置可以不一致,对照一下注释掉的文档是否包含以下配置。

# 如果需要部署集群,集群需要同样的集群名
cluster.name: my-application

# 每个 node 的名字需要唯一
node.name: node-1

# 注意一定要是路径后面加上/var/lib/elasticsearch/nodes,要不然无法加入集群,单机不需要
# path.data: /var/lib/elasticsearch/nodes
# path.logs: /var/log/elasticsearch

# 配置服务器的内网地址,有文档配置的 0.0.0.0 或 localhost,但是后面出现了问题,暂未研究什么原因
network.host: 192.168.0.146

# 配置端口号,默认 9200
http.port: 9200

# 配置集群节点,多个服务器["node-1", "node-2"]
cluster.initial_master_nodes: ["node-1"]
# discovery.seed_hosts: ["192.168.0.146", "192.168.0.147", "192.168.0.148"]

# 解决跨域
http.cors.enabled: true
http.cors.allow-origin: "*"

启动 Elasticsearch

其中/config/jvm.options 未启动的 JVM 配置,默认为-Xms1g -Xmx1g ….该配置根据自己的实际需求修改。 注意:启动时,不可以使用 root 用户。 进入 Elasticsearch 上级这里我们创建一个 elsearch 用户

# 创建 elsearch 组
groupadd elsearch
useradd  elsearch(用户名) -g elsearch(组名) -p elsearch(密码)

# 给新创建用户文件夹执行权限
chown -R elsearch:elsearch /usr/local/elasticsearch-7.3.0

# 切换 elsearch 用户
su elsearch

进入 bin 目录

sh elasticsearch &

启动成功后,访问
http://192.168.0.146:9200/ ,得到以下截图,表示启动成功。

安装 ElasticSearch 的 Head 插件

注意:安装 head 需要安装 node 和 npm 下载地址:https://github.com/mobz/elasticsearch-head.git 下载后执行:

# 安装 module
npm install
# 运行 head 插件
npm run start 

访问界面
http://192.168.0.146:9100/ 得到以下界面,(我的以下界面,已经添加了日志)

常见的问题

  • 使用 root 用户启动,需要切换 elsearch 用户启动。
[2019-08-25T19:30:25,587][WARN ][o.e.b.ElasticsearchUncaughtExceptionHandler] [node-1] uncaught exception in thread [main]
org.elasticsearch.bootstrap.StartupException: java.lang.RuntimeException: can not run elasticsearch as root
    at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:163) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.bootstrap.Elasticsearch.execute(Elasticsearch.java:150) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.cli.EnvironmentAwareCommand.execute(EnvironmentAwareCommand.java:86) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.cli.Command.mainWithoutErrorHandling(Command.java:124) ~[elasticsearch-cli-7.3.0.jar:7.3.0]
    at org.elasticsearch.cli.Command.main(Command.java:90) ~[elasticsearch-cli-7.3.0.jar:7.3.0]
    at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:115) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:92) ~[elasticsearch-7.3.0.jar:7.3.0]
Caused by: java.lang.RuntimeException: can not run elasticsearch as root
    at org.elasticsearch.bootstrap.Bootstrap.initializeNatives(Bootstrap.java:105) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.bootstrap.Bootstrap.setup(Bootstrap.java:172) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:349) ~[elasticsearch-7.3.0.jar:7.3.0]
    at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:159) ~[elasticsearch-7.3.0.jar:7.3.0]
    ... 6 more

具体参考:https://blog.csdn.net/u013083576/article/details/78499884 (这篇博客整理的比较全面,遇到了再补充)

Logstash 搭建

Logstash 下载

下载 Logstash

wget https://artifacts.elastic.co/downloads/logstash/logstash-7.3.0.tar.gz

解压 Logstash

tar -zxvf logstash-7.3.0.tar.gz

stash 第一个事件

Logstash 管道有两个必需元素,输入和输出,以及一个可选元素 filter。 输入插件使用来自源的数据,过滤器插件在您指定时修改数据,输出插件将数据写入目标。

要测试 Logstash 安装成功,运行最基本的 Logstash 管道。 执行以下的命令

 bin/logstash -e 'input { stdin { } } output { stdout {} }'

-e 标志使您可以直接从命令行指定配置。 通过在命令行指定配置,可以快速测试配置,而无需在迭代之间编辑文件。 示例中的管道从标准输入 stdin 获取输入,并以结构化格式将输入移动到标准输出 stdout。 启动 Logstash 后,等到看到“Pipeline main started”,然后在命令提示符下输入 hello world,显示的如下:

hello world
{
          "host" => "VM_0_13_centos",
       "message" => "hello world",
      "@version" => "1",
    "@timestamp" => 2019-07-02T06:26:28.684Z
}

配置 logstash 输出到 elasticsearch

修改 logstash 的安装目录的 config 目录下的 logstash-sample.conf 文件

cd logstash-7.3.0/config/
vim logstash-sample.conf

修改完配置如下:

input {
  beats {
    port => 5044
  }
  tcp {
    port => 4569
    codec => "json"
  }
}

output {
  if[appname] != "" {
    elasticsearch {
      hosts => ["http://192.168.0.146:9200"]
      index => "%{[appName]}-%{+YYYY.MM.dd}"
    }
  } else {
    elasticsearch {
      hosts => ["http://192.168.0.146:9200"]
      index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    }
  }
}

更多配置参照官网教程:https://www.elastic.co/guide/en/logstash/current/advanced-pipeline.html 其中:

  • beats 为结合 filebeat 使用。
  • tcp 为通过 tcp 协议的通道。注意 codec 为 json 格式。por 为请求的端口号。
  • elasticsearch 为输出到 elasticsearch ,也可以配置其他。更多详细见下面文档 配置详细解释 可以参考该 logstash 手册:https://doc.yonyoucloud.com/doc/logstash-best-practice-cn/getstart/helloworld.html

logstash 结合 filebeat 使用

logstash 结合 filebeat 在分布式系统中,一台主机可能有多个应用,应用将日志输出到主机的指定目录,这时由 logstash 来搬运日志并解析日志,然后输出到 elasticsearch 上。由于于 logstash 是 java 应用,解析日志是非的消耗 cpu 和内存,logstash 安装在应用部署的机器上显得非常的笨重。最常见的做法是用 filebeat 部署在应用的机器上,logstash 单独部署,然后由 filebeat 将日志输出给 logstash 解析,解析完由 logstash 再传给 elasticsearch。

下载 filebeat,下载命令如下:

wget  https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.0-linux-x86_64.tar.gz
tar -zxvf filebeat-7.3.0-linux-x86_64.tar.gz
cd /filebeat-7.3.0-linux-x86_64/

vim filebeat.yml 修改配置:

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/service.log
output.logstash:
  hosts: ["192.168.1.146:5044"]

主要配置的是日志的搜集目录为/var/log/service.log,这个目录是应用 service 输出日志的文件。输出到 logstsh 的地址为 192.168.1.146

启动 filebeat,执行以下命令:

sudo chown root filebeat.yml
sudo ./filebeat -e >filebeat.log 2>&1 &

这样日志就传输到了 logstash, 然后通过 logstash 输出到 elasticsearch

具体效果需要结合 Kibana 或者通过 elasticsearch-head 查看

SpringCloud + logstash 结合 logbak 使用

在 pom 文件引用

        
        
            net.logstash.logback
            logstash-logback-encoder
            5.2
        

在 resources 添加 logbak 的配置文件 logback-spring.xml:



    
    
    
    
        
            ${log.pattern}
        
    

    
    
        
        
        192.168.0.146
        
        4569
        //引入过滤类
        
        
            {"appname":"ceshi"} // 索引名
        
    

    
        
        
    

其中{"appname":"ceshi"} 对应 logstash 配置文件中的 appname,为创建的索引名。 可以在 Kibana 索引管理中根据名称进行分区搜索。根据自己的需求来,这里只做演示。

编写测试方法:

@Slf4j
@RestController
public class TestController {
    @RequestMapping(value = "/test")
    public String test(String id) {
        log.info("这是一个日志测试的 controller");
        return "这是一个日志测试的 controller";
    }
}

请求该方法,在 Kibana 中便可搜索到这条消息。(我这里做了接口拦截日志,展示的有些不一致,这里只做效果展示用)

Kibana 搭建

kibana 作为 ElastciSearch 的数据查询展示界面,集成了很多的功能,本文主要讲述如下部署 kibana。

下载 Kibana

wget https://artifacts.elastic.co/downloads/kibana/kibana-7.3.0-linux-x86_64.tar.gz

解压 Kibana

tar -zxvf kibana-7.3.0-linux-x86_64.tar.gz

修改 Kibana 的配置文件

cd kibana-7.3.0/config/
vim kibana.yml

修改配置文件如下:

# 端口
server.port: 5601
# 指定本机 ip 让外部能访问
server.host: "0.0.0.0"
# 请求数据指向的 elasticsearch 服务器
elasticsearch.hosts: ["http://192.168.0.146:9200"]

配置完启动 kibana,进入 bin 目录执行

sh kibana &

访问 http://192.168.0.146:5601, 得到以下页面,代表启动成功。

查看通过 logstash 传输的日志列表

配置索引模式

查看日志

本文就到这里了,这里只是简单地介绍了 ELK 的基础安装使用,更多的高级功能,还需要小伙伴自己去挖掘。

相关推荐

探索Java项目中日志系统最佳实践:从入门到精通

探索Java项目中日志系统最佳实践:从入门到精通在现代软件开发中,日志系统如同一位默默无闻却至关重要的管家,它记录了程序运行中的各种事件,为我们排查问题、监控性能和优化系统提供了宝贵的依据。在Java...

用了这么多年的java日志框架,你真的弄懂了吗?

在项目开发过程中,有一个必不可少的环节就是记录日志,相信只要是个程序员都用过,可是咱们自问下,用了这么多年的日志框架,你确定自己真弄懂了日志框架的来龙去脉嘛?下面笔者就详细聊聊java中常用日志框架的...

物理老师教你学Java语言(中篇)(物理专业学编程)

第四章物质的基本结构——类与对象...

一文搞定!Spring Boot3 定时任务操作全攻略

各位互联网大厂的后端开发小伙伴们,在使用SpringBoot3开发项目时,你是否遇到过定时任务实现的难题呢?比如任务调度时间不准确,代码报错却找不到方向,是不是特别头疼?如今,随着互联网业务规模...

你还不懂java的日志系统吗 ?(java的日志类)

一、背景在java的开发中,使用最多也绕不过去的一个话题就是日志,在程序中除了业务代码外,使用最多的就是打印日志。经常听到的这样一句话就是“打个日志调试下”,没错在日常的开发、调试过程中打印日志是常干...

谈谈枚举的新用法--java(java枚举的作用与好处)

问题的由来前段时间改游戏buff功能,干了一件愚蠢的事情,那就是把枚举和运算集合在一起,然后运行一段时间后buff就出现各种问题,我当时懵逼了!事情是这样的,做过游戏的都知道,buff,需要分类型,且...

你还不懂java的日志系统吗(javaw 日志)

一、背景在java的开发中,使用最多也绕不过去的一个话题就是日志,在程序中除了业务代码外,使用最多的就是打印日志。经常听到的这样一句话就是“打个日志调试下”,没错在日常的开发、调试过程中打印日志是常干...

Java 8之后的那些新特性(三):Java System Logger

去年12月份log4j日志框架的一个漏洞,给Java整个行业造成了非常大的影响。这个事情也顺带把log4j这个日志框架推到了争议的最前线。在Java领域,log4j可能相对比较流行。而在log4j之外...

Java开发中的日志管理:让程序“开口说话”

Java开发中的日志管理:让程序“开口说话”日志是程序员的朋友,也是程序的“嘴巴”。它能让程序在运行过程中“开口说话”,告诉我们它的状态、行为以及遇到的问题。在Java开发中,良好的日志管理不仅能帮助...

吊打面试官(十二)--Java语言中ArrayList类一文全掌握

导读...

OS X 效率启动器 Alfred 详解与使用技巧

问:为什么要在Mac上使用效率启动器类应用?答:在非特殊专业用户的环境下,(每天)用户一般可以在系统中进行上百次操作,可以是点击,也可以是拖拽,但这些只是过程,而我们的真正目的是想获得结果,也就是...

Java中 高级的异常处理(java中异常处理的两种方式)

介绍异常处理是软件开发的一个关键方面,尤其是在Java中,这种语言以其稳健性和平台独立性而闻名。正确的异常处理不仅可以防止应用程序崩溃,还有助于调试并向用户提供有意义的反馈。...

【性能调优】全方位教你定位慢SQL,方法介绍下!

1.使用数据库自带工具...

全面了解mysql锁机制(InnoDB)与问题排查

MySQL/InnoDB的加锁,一直是一个常见的话题。例如,数据库如果有高并发请求,如何保证数据完整性?产生死锁问题如何排查并解决?下面是不同锁等级的区别表级锁:开销小,加锁快;不会出现死锁;锁定粒度...

看懂这篇文章,你就懂了数据库死锁产生的场景和解决方法

一、什么是死锁加锁(Locking)是数据库在并发访问时保证数据一致性和完整性的主要机制。任何事务都需要获得相应对象上的锁才能访问数据,读取数据的事务通常只需要获得读锁(共享锁),修改数据的事务需要获...