docker搭建最新ELFK分布式日志收集系统(elasticsearch+logstash+filebeats+kibana7.16.1)
以下是使用Docker搭建ELFK分布式日志系统的基本步骤和示例配置代码:
- 安装Docker。
- 创建
docker-compose.yml
文件,内容如下:
version: '3'
services:
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:7.10.0
environment:
- discovery.type=single-node
volumes:
- esdata1:/usr/share/elasticsearch/data
ports:
- "9200:9200"
networks:
- elk
logstash:
image: docker.elastic.co/logstash/logstash:7.10.0
volumes:
- ./logstash/pipeline:/usr/share/logstash/pipeline
command: -f /usr/share/logstash/pipeline/logstash.conf
networks:
- elk
kibana:
image: docker.elastic.co/kibana/kibana:7.10.0
environment:
- ELASTICSEARCH_URL=http://elasticsearch:9200
ports:
- "5601:5601"
networks:
- elk
filebeat:
image: docker.elastic.co/beats/filebeat:7.10.0
volumes:
- /var/lib/docker/volumes:/var/log
environment:
- output=elasticsearch
- hosts=["elasticsearch:9200"]
networks:
- elk
volumes:
esdata1:
driver: local
networks:
elk:
driver: bridge
- 在
logstash/pipeline
目录下创建logstash.conf
文件,配置Logstash的日志处理规则。
input {
beats {
port => 5044
}
}
filter {
# 根据需要配置过滤规则
}
output {
elasticsearch {
hosts => ["elasticsearch:9200"]
index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
# 更多配置...
}
}
- 在包含
docker-compose.yml
文件的目录下运行以下命令启动ELFK系统:
docker-compose up -d
- 配置Filebeat在应用服务器上收集日志,并发送到Logstash。Filebeat配置示例(filebeat.yml):
filebeat.inputs:
- type: log
paths:
- /var/log/*.log
setup.kibana:
host: "kibana:5601"
output.logstash:
hosts: ["logstash:5044"]
确保将日志文件路径和其他配置调整为实际环境。
以上步骤和配置是基于Docker Compose和ELK各组件的官方Docker镜像。根据实际情况,可能需要调整配置以满足特定需求。
评论已关闭