当前位置: 首页 > web >正文

ELK实现nginx、mysql、http的日志可视化实验

ELK(Elasticsearch, Logstash, Kibana)是一个强大的日志管理和分析平台,可以实现对nginx、mysql和http日志的可视化。本文将详细介绍如何配置ELK来实现这些日志的可视化。

一、环境准备

1. 安装Elasticsearch
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.10.2-linux-x86_64.tar.gz
tar -xzf elasticsearch-7.10.2-linux-x86_64.tar.gz
cd elasticsearch-7.10.2
./bin/elasticsearch
2. 安装Logstash
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.10.2.tar.gz
tar -xzf logstash-7.10.2.tar.gz
cd logstash-7.10.2
3. 安装Kibana
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.10.2-linux-x86_64.tar.gz
tar -xzf kibana-7.10.2-linux-x86_64.tar.gz
cd kibana-7.10.2-linux-x86_64
./bin/kibana

二、配置Logstash

Logstash需要配置文件来处理nginx、mysql和http日志。创建以下配置文件:

1. Nginx日志配置

在 logstash-7.10.2/config目录下创建文件 nginx.conf

input {file {path => "/var/log/nginx/access.log"start_position => "beginning"}
}filter {grok {match => { "message" => "%{COMBINEDAPACHELOG}" }}date {match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]target => "@timestamp"}
}output {elasticsearch {hosts => ["localhost:9200"]index => "nginx-logs"}stdout { codec => rubydebug }
}
2. MySQL日志配置

在 logstash-7.10.2/config目录下创建文件 mysql.conf

input {file {path => "/var/log/mysql/mysql.log"start_position => "beginning"}
}filter {grok {match => { "message" => "%{GREEDYDATA:log_message}" }}date {match => [ "timestamp" , "ISO8601" ]target => "@timestamp"}
}output {elasticsearch {hosts => ["localhost:9200"]index => "mysql-logs"}stdout { codec => rubydebug }
}
3. HTTP日志配置

在 logstash-7.10.2/config目录下创建文件 http.conf

input {file {path => "/var/log/httpd/access_log"start_position => "beginning"}
}filter {grok {match => { "message" => "%{COMBINEDAPACHELOG}" }}date {match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]target => "@timestamp"}
}output {elasticsearch {hosts => ["localhost:9200"]index => "http-logs"}stdout { codec => rubydebug }
}

三、启动Logstash

分别启动Logstash实例来处理不同的日志:

cd logstash-7.10.2
bin/logstash -f config/nginx.conf
bin/logstash -f config/mysql.conf
bin/logstash -f config/http.conf
​

四、配置Kibana

1. 访问Kibana

打开浏览器,访问 http://localhost:5601,进入Kibana界面。

2. 创建Index Pattern

在Kibana中创建索引模式:

  • 进入 Management > Index Patterns
  • 点击 Create Index Pattern
  • 分别创建 nginx-logsmysql-logs和 http-logs的索引模式。
3. 可视化日志数据

在Kibana的 Discover页面,可以选择不同的索引模式查看日志数据。你可以创建各种可视化,如饼图、柱状图和线图,来分析日志数据。

http://www.xdnf.cn/news/13029.html

相关文章:

  • centos7部署AWStats日志分析系统
  • java中word快速转pdf
  • Linux系统:进程间通信-匿名与命名管道
  • 离线语音识别方案分析
  • python3基础语法梳理
  • 行列视:企业数据分析新时代的利器(一)——深度解读与应用场景分析
  • 在Ubuntu中设置开机自动运行(sudo)指令的指南
  • 关于uniapp展示PDF的解决方案
  • UNECE R152——解读自动驾驶相关标准法规(AEB)
  • 论文解读:交大港大上海AI Lab开源论文 | 宇树机器人多姿态起立控制强化学习框架(一)
  • 2025.06.09【读书笔记】|PromptBio:让生信分析更简单的AI平台
  • 逻辑回归暴力训练预测金融欺诈
  • docker 部署发现spring.profiles.active 问题
  • QT3D学习笔记——圆台、圆锥
  • Xcode 16.2 版本 pod init 报错
  • 关键领域软件测试的突围之路:如何破解安全与效率的平衡难题
  • 【1】跨越技术栈鸿沟:字节跳动开源TRAE AI编程IDE的实战体验
  • C++--stack和queue的使用及其模拟实现
  • 【Android】Android 开发 ADB 常用指令
  • FreeRTOS队列
  • CMS内容管理系统的设计与实现:多站点模式的实现
  • React核心概念:State是什么?如何用useState管理组件自己的数据?
  • 总结html标签---表单标签
  • 接地气的方式认识JVM(二)
  • MinIO Docker 部署:仅开放一个端口
  • 数据结构-线性表
  • Fabric V2.5 通用溯源系统——增加图片上传与下载功能
  • 使用LangGraph和LangSmith构建多智能体人工智能系统
  • 【java面试】微服务篇
  • 【中间件】Web服务、消息队列、缓存与微服务治理:Nginx、Kafka、Redis、Nacos 详解