1113 lines
42 KiB
Markdown
1113 lines
42 KiB
Markdown
|
<h1><center>日志中心集群</center></h1>
|
|||
|
|
|||
|
|
|||
|
|
|||
|
------
|
|||
|
|
|||
|
## 一:组件介绍
|
|||
|
|
|||
|
#### 1.Elasticsearch
|
|||
|
|
|||
|
主要用来日志存储
|
|||
|
|
|||
|
是一个基于Lucene的搜索服务器。提供搜集、分析、存储数据三大功能。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。
|
|||
|
|
|||
|
#### 2.Logstash
|
|||
|
|
|||
|
主要用来日志的搜集
|
|||
|
|
|||
|
主要是用来日志的搜集、分析、过滤日志的工具。用于管理日志和事件的工具,你可以用它去收集日志、转换日志、解析日志并将他们作为数据提供给其它模块调用,例如搜索、存储等。
|
|||
|
|
|||
|
#### 3.Kibana
|
|||
|
|
|||
|
主要用于日志的展示
|
|||
|
|
|||
|
是一个优秀的前端日志展示框架,它可以非常详细的将日志转化为各种图表,为用户提供强大的数据可视化支持,它能够搜索、展示存储在 Elasticsearch 中索引数据。使用它可以很方便的用图表、表格、地图展示和分析数据。
|
|||
|
|
|||
|
#### 4.Kafka
|
|||
|
|
|||
|
是一种高吞吐量的分布式发布订阅消息系统。具有峰值处理能力,使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。
|
|||
|
|
|||
|
#### 5.Filebeat
|
|||
|
|
|||
|
隶属于Beats,轻量级数据收集引擎。基于原先 Logstash-fowarder 的源码改造出来。换句话说:Filebeat就是新版的 Logstash-fowarder,也会是 ELK Stack 在 Agent 的第一选择;常见的Beat有:
|
|||
|
|
|||
|
Packetbeat(搜集网络流量数据)
|
|||
|
|
|||
|
Metricbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
|
|||
|
|
|||
|
Filebeat(搜集文件数据)
|
|||
|
|
|||
|
Winlogbeat(搜集 Windows 事件日志数据)
|
|||
|
|
|||
|
#### 6.为什么会用到ELK
|
|||
|
|
|||
|
普通的日志分析场景:直接在日志文件中grep、awk就可以获得自己想要的信息,但在规模较大的场景中,此方法效率底下,面临问题包括日志量太大如何归档、文本搜索太慢、如何多纬度的查询。这样我们就需要集中化的日志管理,所有的服务器上的日志收集汇总。解决方案:建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
|
|||
|
|
|||
|
![](https://diandiange.oss-cn-beijing.aliyuncs.com/1.png)
|
|||
|
|
|||
|
## 二:集群构建
|
|||
|
|
|||
|
#### 1.架构
|
|||
|
|
|||
|
<img src="https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531093110260.png" alt="image-20240531093110260" style="zoom:100%;" />
|
|||
|
|
|||
|
**基础架构**
|
|||
|
|
|||
|
单一的架构,logstash作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交由Elasticsearch存储,kibana对日志进行可视化处理
|
|||
|
|
|||
|
![image-20240531100305731](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531100305731.png)
|
|||
|
|
|||
|
**多节点部署Logstash架构**
|
|||
|
|
|||
|
这种架构模式适合需要采集日志的客户端不多,且各服务端cpu,内存等资源充足的情况下。因为每个节点都安装Logstash, 非常消耗节点资源。其中,logstash作为日志搜集器,将每一台节点的数据发送到Elasticsearch上进行存储,再由kibana进行可视化分析。
|
|||
|
|
|||
|
![image-20240531100246661](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531100246661.png)
|
|||
|
|
|||
|
#### 2.版本说明
|
|||
|
|
|||
|
Elasticsearch: 6.5.4
|
|||
|
|
|||
|
Logstash: 6.5.4
|
|||
|
|
|||
|
Kibana: 6.5.4
|
|||
|
|
|||
|
Kafka: 2.11-1
|
|||
|
|
|||
|
Filebeat: 6.5.4
|
|||
|
|
|||
|
#### 3.官网地址
|
|||
|
|
|||
|
官网地址:https://www.elastic.co
|
|||
|
|
|||
|
官网搭建:https://www.elastic.co/guide/index.html
|
|||
|
|
|||
|
#### 4.集群部署
|
|||
|
|
|||
|
系统类型:Centos7.x
|
|||
|
|
|||
|
节点IP:172.16.244.25、172.16.244.26、172.16.244.27
|
|||
|
|
|||
|
软件版本:jdk-8u121-linux-x64.tar.gz、elasticsearch-6.5.4.tar.gz
|
|||
|
|
|||
|
示例节点:172.16.244.25 ABC
|
|||
|
|
|||
|
##### node-1节点
|
|||
|
|
|||
|
安装配置jdk
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/
|
|||
|
[root@xingdian ~]# mv /usr/local/jdk-8u121 /usr/local/java
|
|||
|
[root@xingdian ~]# vim /etc/profile
|
|||
|
JAVA_HOME=/usr/local/java
|
|||
|
PATH=$JAVA_HOME/bin:$PATH
|
|||
|
export JAVA_HOME PATH
|
|||
|
[root@xingdian ~]# source /etc/profile
|
|||
|
```
|
|||
|
|
|||
|
创建运行ES的普通用户
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# useradd elsearch (useradd ela)
|
|||
|
[root@xingdian ~]# echo "******" | passwd --stdin "elsearch"
|
|||
|
```
|
|||
|
|
|||
|
安装配置ES
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# tar zxvf /usr/local/package/elasticsearch-6.5.4.tar.gz -C /usr/local/
|
|||
|
[root@xingdian ~]# vim /usr/local/elasticsearch-6.5.4/config/elasticsearch.yml
|
|||
|
cluster.name: bjbpe01-elk
|
|||
|
node.name: elk01
|
|||
|
node.master: true
|
|||
|
node.data: true
|
|||
|
path.data: /data/elasticsearch/data
|
|||
|
path.logs: /data/elasticsearch/logs
|
|||
|
bootstrap.memory_lock: false
|
|||
|
bootstrap.system_call_filter: false
|
|||
|
network.host: 0.0.0.0
|
|||
|
http.port: 9200
|
|||
|
#discovery.zen.ping.unicast.hosts: ["172.16.244.26", "172.16.244.27"]
|
|||
|
#discovery.zen.ping_timeout: 150s
|
|||
|
#discovery.zen.fd.ping_retries: 10
|
|||
|
#client.transport.ping_timeout: 60s
|
|||
|
http.cors.enabled: true
|
|||
|
http.cors.allow-origin: "*"
|
|||
|
注意:如果是集群取消配置文件中的所有注释,并修改对应的参数
|
|||
|
```
|
|||
|
|
|||
|
设置JVM堆大小
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# sed -i 's/-Xms1g/-Xms4g/' /usr/local/elasticsearch-6.5.4/config/jvm.options
|
|||
|
[root@xingdian ~]# sed -i 's/-Xmx1g/-Xmx4g/' /usr/local/elasticsearch-6.5.4/config/jvm.options
|
|||
|
注意: 确保堆内存最小值(Xms)与最大值(Xmx)的大小相同,防止程序在运行时改变堆内存大小。 如果系统内存足够大,将堆内存最大和最小值设置为31G,因为有一个32G性能瓶颈问题。 堆内存大小不要超过系统内存的50%。
|
|||
|
```
|
|||
|
|
|||
|
创建ES数据及日志存储目录
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# mkdir -p /data/elasticsearch/data (/data/elasticsearch)
|
|||
|
[root@xingdian ~]# mkdir -p /data/elasticsearch/logs (/log/elasticsearch)
|
|||
|
```
|
|||
|
|
|||
|
修改安装目录及存储目录权限
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# chown -R elsearch:elsearch /data/elasticsearch
|
|||
|
[root@xingdian ~]# chown -R elsearch:elsearch /usr/local/elasticsearch-6.5.4
|
|||
|
```
|
|||
|
|
|||
|
系统优化
|
|||
|
|
|||
|
```shell
|
|||
|
修改/etc/security/limits.conf配置文件,将以下内容添加到配置文件中。(*表示所有用户)
|
|||
|
* soft nofile 65536
|
|||
|
* hard nofile 131072
|
|||
|
* soft nproc 2048
|
|||
|
* hard nproc 4096
|
|||
|
```
|
|||
|
|
|||
|
增加最大内存映射数
|
|||
|
|
|||
|
```shell
|
|||
|
[root@xingdian ~]# echo "vm.max_map_count=262144" >> /etc/sysctl.conf
|
|||
|
[root@xingdian ~]# sysctl -p
|
|||
|
```
|
|||
|
|
|||
|
启动ES
|
|||
|
|
|||
|
```shell
|
|||
|
su - elsearch -c "cd /usr/local/elasticsearch-6.5.4 && nohup bin/elasticsearch &"
|
|||
|
```
|
|||
|
|
|||
|
node-2节点的elasticsearch部署跟node-1相同
|
|||
|
|
|||
|
##### node-2节点
|
|||
|
|
|||
|
略
|
|||
|
|
|||
|
##### node-3节点
|
|||
|
|
|||
|
略
|
|||
|
|
|||
|
#### 5.配置文件
|
|||
|
|
|||
|
```shell
|
|||
|
cluster.name 集群名称,各节点配成相同的集群名称。
|
|||
|
node.name 节点名称,各节点配置不同。
|
|||
|
node.master 指示某个节点是否符合成为主节点的条件。
|
|||
|
node.data 指示节点是否为数据节点。数据节点包含并管理索引的一部分。
|
|||
|
path.data 数据存储目录。
|
|||
|
path.logs 日志存储目录。
|
|||
|
bootstrap.memory_lock 内存锁定,是否禁用交换。
|
|||
|
bootstrap.system_call_filter 系统调用过滤器。
|
|||
|
network.host 绑定节点IP。
|
|||
|
http.port rest api端口。
|
|||
|
discovery.zen.ping.unicast.hosts 提供其他 Elasticsearch 服务节点的单点广播发现功能。
|
|||
|
discovery.zen.ping_timeout 节点在发现过程中的等待时间。
|
|||
|
discovery.zen.fd.ping_retries 节点发现重试次数。
|
|||
|
http.cors.enabled 是否允许跨源 REST 请求,用于允许head插件访问ES。
|
|||
|
http.cors.allow-origin 允许的源地址。
|
|||
|
```
|
|||
|
|
|||
|
#### 6.浏览器访问测试
|
|||
|
|
|||
|
注意:默认端口9200
|
|||
|
|
|||
|
![image-20240531101150272](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101150272.png)
|
|||
|
|
|||
|
7.安装head插件
|
|||
|
|
|||
|
注意:使用google或者edge浏览器对应的head插件即可
|
|||
|
|
|||
|
![image-20240531101304563](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101304563.png)
|
|||
|
|
|||
|
#### 7.模拟数据插入
|
|||
|
|
|||
|
注意:索引名字:xingdian/test 数据: {"user":"xingdian","mesg":"hello world"}
|
|||
|
|
|||
|
![image-20240531101358130](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101358130.png)
|
|||
|
|
|||
|
![image-20240531101544883](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101544883.png)
|
|||
|
|
|||
|
![image-20240531101623298](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101623298.png)
|
|||
|
|
|||
|
## 三:Kibana安装部署
|
|||
|
|
|||
|
#### 1.获取包
|
|||
|
|
|||
|
无
|
|||
|
|
|||
|
#### 2.解压安装
|
|||
|
|
|||
|
```shell
|
|||
|
[root@kibana ~]# tar xf kibana-6.5.4-linux-x86_64.tar.gz
|
|||
|
[root@kibana ~]# mv kibana-6.5.4-linux-x86_64 /usr/local/kibana
|
|||
|
```
|
|||
|
|
|||
|
#### 3.修改配置
|
|||
|
|
|||
|
```shell
|
|||
|
[root@kibana ~]# vi /usr/local/kibana/config/kibana.yml
|
|||
|
server.port: 5601
|
|||
|
server.host: "172.16.244.28"
|
|||
|
elasticsearch.url: "http://172.16.244.25:9200"
|
|||
|
kibana.index: ".kibana"
|
|||
|
```
|
|||
|
|
|||
|
注意:
|
|||
|
|
|||
|
server.port kibana服务端口,默认5601
|
|||
|
|
|||
|
server.host kibana主机IP地址,默认localhost
|
|||
|
|
|||
|
elasticsearch.url 用来做查询的ES节点的URL,默认http://localhost:9200
|
|||
|
|
|||
|
#### 4.启动访问
|
|||
|
|
|||
|
```sjell
|
|||
|
[root@kibana ~]# cd /usr/local/kibana
|
|||
|
nohup ./bin/kibana &
|
|||
|
```
|
|||
|
|
|||
|
5.使用kibana关联到ES
|
|||
|
|
|||
|
![image-20240603145607682](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240603145607682.png)
|
|||
|
|
|||
|
## 四:Logstash安装部署
|
|||
|
|
|||
|
#### 1.获取包
|
|||
|
|
|||
|
无
|
|||
|
|
|||
|
#### 2.解压安装
|
|||
|
|
|||
|
```shell
|
|||
|
[root@logstash ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/
|
|||
|
[root@logstash ~]# mv /usr/local/jdk-8u121 /usr/local/java
|
|||
|
[root@logstash ~]# vim /etc/profile
|
|||
|
JAVA_HOME=/usr/local/java
|
|||
|
PATH=$JAVA_HOME/bin:$PATH
|
|||
|
export JAVA_HOME PATH
|
|||
|
[root@logstash ~]# source /etc/profile
|
|||
|
[root@logstash ~]# tar xf logstash-6.5.0.tar.gz -C /opt/
|
|||
|
[root@logstash ~]# mv /opt/logstash-6.5.0/ /opt/logstash
|
|||
|
```
|
|||
|
|
|||
|
#### 3.使用
|
|||
|
|
|||
|
输入输出都为终端
|
|||
|
|
|||
|
```shell
|
|||
|
[root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{} }'
|
|||
|
-e 后面跟搜集定义输出(input [filter] output)后面跟{}
|
|||
|
```
|
|||
|
|
|||
|
输入是终端的标准输入,输出到ES集群
|
|||
|
|
|||
|
```shell
|
|||
|
[root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.1.160:9200"]} }'
|
|||
|
Settings: Default filter workers: 1
|
|||
|
Logstash startup completed #输入下面的测试数据
|
|||
|
123456
|
|||
|
wangshibo
|
|||
|
huanqiu
|
|||
|
hahaha
|
|||
|
```
|
|||
|
|
|||
|
采集单个文件
|
|||
|
|
|||
|
```json
|
|||
|
[root@logstash ~]# cat /opt/nginx_access_logstash.conf
|
|||
|
input{
|
|||
|
file {
|
|||
|
path => "/var/log/nginx/access_json.log"
|
|||
|
start_position => "beginning"
|
|||
|
}
|
|||
|
}
|
|||
|
|
|||
|
output{
|
|||
|
|
|||
|
elasticsearch {
|
|||
|
hosts => ["10.9.12.86:9200"]
|
|||
|
index => "nginx-access-json-%{+YYYY.MM.dd}"
|
|||
|
}
|
|||
|
|
|||
|
}
|
|||
|
```
|
|||
|
|
|||
|
采集多个文件
|
|||
|
|
|||
|
```json
|
|||
|
[root@logstash ~]# cat /opt/files.conf
|
|||
|
input {
|
|||
|
file {
|
|||
|
path => "/var/log/messages"
|
|||
|
type => "system"
|
|||
|
start_position => "beginning"
|
|||
|
}
|
|||
|
}
|
|||
|
input {
|
|||
|
file {
|
|||
|
path => "/var/log/yum.log"
|
|||
|
type => "safeware"
|
|||
|
start_position => "beginning"
|
|||
|
}
|
|||
|
}
|
|||
|
output {
|
|||
|
|
|||
|
if [type] == "system"{
|
|||
|
elasticsearch {
|
|||
|
hosts => ["10.9.12.86:9200"]
|
|||
|
index => "system-%{+YYYY.MM.dd}"
|
|||
|
}
|
|||
|
}
|
|||
|
if [type] == "safeware"{
|
|||
|
elasticsearch {
|
|||
|
hosts => ["10.9.12.86:9200"]
|
|||
|
index => "safeware-%{+YYYY.MM.dd}"
|
|||
|
}
|
|||
|
}
|
|||
|
}
|
|||
|
```
|
|||
|
|
|||
|
#### 4.定义nginx的日志格式并采集
|
|||
|
|
|||
|
Nginx配置文件修改
|
|||
|
|
|||
|
```
|
|||
|
log_format json '{"@timestamp":"$time_iso8601",'
|
|||
|
'"@version":"1",'
|
|||
|
'"client":"$remote_addr",'
|
|||
|
'"url":"$uri",'
|
|||
|
'"status":"$status",'
|
|||
|
'"domain":"$host",'
|
|||
|
'"host":"$server_addr",'
|
|||
|
'"size":$body_bytes_sent,'
|
|||
|
'"responsetime":$request_time,'
|
|||
|
'"referer": "$http_referer",'
|
|||
|
'"ua": "$http_user_agent"'
|
|||
|
'}';
|
|||
|
|
|||
|
|
|||
|
access_log /var/log/nginx/access_json.log json;
|
|||
|
```
|
|||
|
|
|||
|
定义采集配置文件
|
|||
|
|
|||
|
```json
|
|||
|
input {
|
|||
|
file {
|
|||
|
path => "/var/log/nginx/access_json.log"
|
|||
|
start_position => "beginning"
|
|||
|
}
|
|||
|
}
|
|||
|
output {
|
|||
|
elasticsearch {
|
|||
|
hosts => ["192.168.122.118:9200"]
|
|||
|
index => "nginx1-%{+YYYY.MM.dd}"
|
|||
|
}
|
|||
|
}
|
|||
|
```
|
|||
|
|
|||
|
ES查看索引,Kibana展示数据
|
|||
|
|
|||
|
## 五:Kakfa
|
|||
|
|
|||
|
#### 1.理论
|
|||
|
|
|||
|
```shell
|
|||
|
kafka是一个分布式的消息发布—订阅系统(kafka其实是消息队列)
|
|||
|
http://kafka.apache.org/
|
|||
|
|
|||
|
Kafka是最初由Linkedin公司开发,是一个分布式、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/Spark流式处理引擎,web/nginx日志、访问日志,消息服务等等,用scala语言编写,Linkedin于2010年贡献给了Apache基金会并成为顶级开源 项目。
|
|||
|
|
|||
|
Kafka的特性:
|
|||
|
- 高吞吐量、低延迟:kafka每秒可以处理几十万条消息,它的延迟最低只有几毫秒,每个topic可以分多个partition, consumer group 对partition进行consumer操作。
|
|||
|
- 可扩展性:kafka集群支持热扩展
|
|||
|
- 可靠性:消息被持久化到本地磁盘,并且支持数据备份防止数据丢失
|
|||
|
- 容错性:允许集群中节点失败(若副本数量为n,则允许n-1个节点失败)
|
|||
|
- 高并发:支持数千个客户端同时读写
|
|||
|
kafka组件:
|
|||
|
话题(Topic):是特定类型的消息流。消息是字节的有效负载(Payload),话题是消息的分类名或种子(Feed)名。(每条发布到 kafka 集群的消息属于的类别,即 kafka 是面向 topic 的)。
|
|||
|
生产者(Producer):是能够发布消息到话题的任何对象(发布消息到 kafka 集群的终端或服务).
|
|||
|
服务代理(Broker):已发布的消息保存在一组服务器中,它们被称为代理(Broker)或Kafka集群。
|
|||
|
消费者(Consumer):可以订阅一个或多个话题,并从Broker拉数据,从而消费这些已发布的消息。
|
|||
|
partition(区):partition 是物理上的概念,每个 topic 包含一个或多个 partition。每一个topic将被分为多个partition(区)。
|
|||
|
Consumer group:high-level consumer API 中,每个 consumer 都属于一个 consumer group,每条消息只能被 consumer group 中的一个 Consumer 消费,但可以被多个 consumer group 消费。
|
|||
|
replication:partition 的副本,保障 partition 的高可用。
|
|||
|
leader:replication 中的一个角色, producer 和 consumer 只跟 leader 交互。
|
|||
|
follower:replication 中的一个角色,从 leader 中复制数据。
|
|||
|
controller:kafka 集群中的其中一个服务器,用来进行 leader election 以及 各种 failover。
|
|||
|
zookeeper:kafka 通过 zookeeper 来存储集群的 meta 信息。
|
|||
|
```
|
|||
|
|
|||
|
![image-20240604172144391](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240604172144391.png)
|
|||
|
|
|||
|
#### 2.部署
|
|||
|
|
|||
|
```shell
|
|||
|
Kafka部署(所有节点都部署)
|
|||
|
1.安装jdk
|
|||
|
[root@xingdian ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/
|
|||
|
[root@xingdian ~]# mv /usr/local/jdk-8u121 /usr/local/java
|
|||
|
[root@xingdian ~]# vim /etc/profile
|
|||
|
JAVA_HOME=/usr/local/java
|
|||
|
PATH=$JAVA_HOME/bin:$PATH
|
|||
|
export JAVA_HOME PATH
|
|||
|
[root@xingdian ~]# source /etc/profile
|
|||
|
|
|||
|
2.安装ZK
|
|||
|
Kafka运行依赖ZK,Kafka官网提供的tar包中,已经包含了ZK,这里不再额下载ZK程序。
|
|||
|
tar zxvf /usr/local/package/kafka_2.11-2.1.0.tgz -C /usr/local/
|
|||
|
3.配置
|
|||
|
sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties
|
|||
|
vi /usr/local/kafka/config/zookeeper.properties
|
|||
|
dataDir=/opt/data/zookeeper/data
|
|||
|
dataLogDir=/opt/data/zookeeper/logs
|
|||
|
clientPort=2181
|
|||
|
tickTime=2000
|
|||
|
initLimit=20
|
|||
|
syncLimit=10
|
|||
|
server.1=172.16.244.31:2888:3888 //kafka集群IP:Port
|
|||
|
server.2=172.16.244.32:2888:3888
|
|||
|
server.3=172.16.244.33:2888:3888
|
|||
|
#创建data、log目录
|
|||
|
mkdir -p /opt/data/zookeeper/{data,logs}
|
|||
|
#创建myid文件
|
|||
|
echo 1 > /opt/data/zookeeper/data/myid
|
|||
|
注意:
|
|||
|
dataDir ZK数据存放目录。
|
|||
|
dataLogDir ZK日志存放目录。
|
|||
|
clientPort 客户端连接ZK服务的端口。
|
|||
|
tickTime ZK服务器之间或客户端与服务器之间维持心跳的时间间隔。
|
|||
|
initLimit 允许follower(相对于Leaderer言的“客户端”)连接并同步到Leader的初始化连接时间,以tickTime为单位。当初始化连接时间超过该值,则表示连接失败。
|
|||
|
syncLimit Leader与Follower之间发送消息时,请求和应答时间长度。如果follower在设置时间内不能与leader通信,那么此follower将会被丢弃。
|
|||
|
server.1=172.16.244.31:2888:3888 2888是follower与leader交换信息的端口,3888是当leader挂了时用来执行选举时服务器相互通信的端口。
|
|||
|
|
|||
|
4.配置kafka
|
|||
|
sed -i 's/^[^#]/#&/' /usr/local/kafka/config/server.properties
|
|||
|
vi /usr/local/kafka/config/server.properties
|
|||
|
broker.id=1
|
|||
|
listeners=PLAINTEXT://172.16.244.31:9092
|
|||
|
num.network.threads=3
|
|||
|
num.io.threads=8
|
|||
|
socket.send.buffer.bytes=102400
|
|||
|
socket.receive.buffer.bytes=102400
|
|||
|
socket.request.max.bytes=104857600
|
|||
|
log.dirs=/opt/data/kafka/logs
|
|||
|
num.partitions=6
|
|||
|
num.recovery.threads.per.data.dir=1
|
|||
|
offsets.topic.replication.factor=2
|
|||
|
transaction.state.log.replication.factor=1
|
|||
|
transaction.state.log.min.isr=1
|
|||
|
log.retention.hours=168
|
|||
|
log.segment.bytes=536870912
|
|||
|
log.retention.check.interval.ms=300000
|
|||
|
zookeeper.connect=172.16.244.31:2181,172.16.244.32:2181,172.16.244.33:2181
|
|||
|
zookeeper.connection.timeout.ms=6000
|
|||
|
group.initial.rebalance.delay.ms=0
|
|||
|
#创建log目录 mkdir -p /opt/data/kafka/logs
|
|||
|
注意:
|
|||
|
broker.id 每个server需要单独配置broker id,如果不配置系统会自动配置。
|
|||
|
listeners 监听地址,格式PLAINTEXT://IP:端口。
|
|||
|
num.network.threads 接收和发送网络信息的线程数。
|
|||
|
num.io.threads 服务器用于处理请求的线程数,其中可能包括磁盘I/O。
|
|||
|
socket.send.buffer.bytes 套接字服务器使用的发送缓冲区(SO_SNDBUF)
|
|||
|
socket.receive.buffer.bytes 套接字服务器使用的接收缓冲区(SO_RCVBUF)
|
|||
|
socket.request.max.bytes 套接字服务器将接受的请求的最大大小(防止OOM)
|
|||
|
log.dirs 日志文件目录。
|
|||
|
num.partitions partition数量。
|
|||
|
num.recovery.threads.per.data.dir 在启动时恢复日志、关闭时刷盘日志每个数据目录的线程的数量,默认1。
|
|||
|
offsets.topic.replication.factor 偏移量话题的复制因子(设置更高保证可用),为了保证有效的复制,偏移话题的复制因子是可配置的,在偏移话题的第一次请求的时候可用的broker的数量至少为复制因子的大小,否则要么话题创建失败,要么复制因子取可用broker的数量和配置复制因子的最小值。
|
|||
|
log.retention.hours 日志文件删除之前保留的时间(单位小时),默认168
|
|||
|
log.segment.bytes 单个日志文件的大小,默认1073741824
|
|||
|
log.retention.check.interval.ms 检查日志段以查看是否可以根据保留策略删除它们的时间间隔。
|
|||
|
zookeeper.connect ZK主机地址,如果zookeeper是集群则以逗号隔开。
|
|||
|
zookeeper.connection.timeout.ms 连接到Zookeeper的超时时间。
|
|||
|
|
|||
|
5.其他配置节点配置相同(myid,broker.id 不同)
|
|||
|
|
|||
|
6.启动验证zk集群
|
|||
|
三个节点依次执行:
|
|||
|
cd /usr/local/kafka
|
|||
|
nohup bin/zookeeper-server-start.sh config/zookeeper.properties &
|
|||
|
|
|||
|
7.验证
|
|||
|
#echo conf | nc 127.0.0.1 2181
|
|||
|
clientPort=2181
|
|||
|
dataDir=/data/zookeeper/data/version-2
|
|||
|
dataLogDir=/data/zookeeper/logs/version-2
|
|||
|
tickTime=2000
|
|||
|
maxClientCnxns=60
|
|||
|
minSessionTimeout=4000
|
|||
|
maxSessionTimeout=40000
|
|||
|
serverId=1
|
|||
|
initLimit=20
|
|||
|
syncLimit=10
|
|||
|
electionAlg=3
|
|||
|
electionPort=3888
|
|||
|
quorumPort=2888
|
|||
|
peerType=0
|
|||
|
|
|||
|
#echo stat | nc 127.0.0.1 2181
|
|||
|
Zookeeper version: 3.4.13-2d71af4dbe22557fda74f9a9b4309b15a7487f03, built on 06/29/2018 00:39 GMT
|
|||
|
Clients:
|
|||
|
/172.17.0.4:35020[0](queued=0,recved=1,sent=0)
|
|||
|
|
|||
|
Latency min/avg/max: 0/0/0
|
|||
|
Received: 4
|
|||
|
Sent: 3
|
|||
|
Connections: 1
|
|||
|
Outstanding: 0
|
|||
|
Zxid: 0x0
|
|||
|
Mode: follower
|
|||
|
Node count: 4
|
|||
|
|
|||
|
8.查看端口
|
|||
|
lsof -i:2181
|
|||
|
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
|
|||
|
java 2442 root 92u IPv4 1031572 0t0 TCP *:eforward (LISTEN)
|
|||
|
|
|||
|
9.启动、验证Kafka(三个节点依次启动)
|
|||
|
cd /usr/local/kafka_2.11-2.1.0/
|
|||
|
nohup bin/kafka-server-start.sh config/server.properties &
|
|||
|
验证:
|
|||
|
创建topic
|
|||
|
# bin/kafka-topics.sh --create --zookeeper 172.17.0.4:2181 --replication-factor 1 --partitions 1 --topic testtopic
|
|||
|
Created topic "testtopic".
|
|||
|
查询topic
|
|||
|
# bin/kafka-topics.sh --zookeeper 172.17.0.4:2181 --list
|
|||
|
testtopic
|
|||
|
模拟消息生产和消费 发送消息到172.17.0.4
|
|||
|
bin/kafka-console-producer.sh --broker-list 172.17.0.4:9092 --topic testtopic
|
|||
|
>Hello World!
|
|||
|
从172.16.244.32接受消息
|
|||
|
# bin/kafka-console-consumer.sh --bootstrap-server 172.17.0.4:9092 --topic testtopic --from-beginning
|
|||
|
Hello World!
|
|||
|
查看主题的信息:
|
|||
|
./bin/kafka-topics.sh --describe --zookeeper 172.17.0.4:2181 --topic testtopic
|
|||
|
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
## 六:Filebeat
|
|||
|
|
|||
|
#### 1.理论
|
|||
|
|
|||
|
```
|
|||
|
Filebeat是本地文件的日志数据采集器。 作为服务器上的代理安装,Filebeat监视日志目录或特定日志文件,并将它们转发给Elasticsearch或Logstash进行索引、kafka 等。
|
|||
|
|
|||
|
|
|||
|
工作原理:
|
|||
|
Filebeat由两个主要组件组成:prospector 和harvester。这些组件一起工作来读取文件并将事件数据发送到您指定的输出。
|
|||
|
|
|||
|
启动Filebeat时,它会启动一个或多个查找器,查看您为日志文件指定的本地路径。 对于prospector 所在的每个日志文件,prospector 启动harvester。 每个harvester都会为新内容读取单个日志文件,并将新日志数据发送到libbeat,后者将聚合事件并将聚合数据发送到您为Filebeat配置的输出。
|
|||
|
harvester :负责读取单个文件的内容。读取每个文件,并将内容发送到 the output每个文件启动一harvester, harvester 负责打开和关闭文件,这意味着在运行时文件描述符保持打开状态,如果文件在读取时被删除,Filebeat将继续读取文件。
|
|||
|
prospector 负责管理harvester并找到所有要读取的文件来源。如果输入类型为日志,则查找器将查找路径匹配的所有文件,并为每个文件启动一个harvester。每个prospector都在自己的Go协程中运行。
|
|||
|
|
|||
|
|
|||
|
注意:
|
|||
|
Filebeat目前支持两种prospector类型:log和stdin。
|
|||
|
每个prospector类型可以定义多次。
|
|||
|
日志prospector检查每个文件以查看harvester是否需要启动,是否已经运行,或者该文件是否可以被忽略。
|
|||
|
Filebeat prospector只能读取本地文件, 没有功能可以连接到远程主机来读取存储的文件或日志。
|
|||
|
|
|||
|
Filebeat如何确保至少一次交付?
|
|||
|
|
|||
|
Filebeat保证事件至少会被传送到配置的输出一次,并且不会丢失数据。 Filebeat能够实现此行为,因为它将每个事件的传递状态存储在注册文件中。在输出阻塞或未确认所有事件的情况下,Filebeat将继续尝试发送事件,直到接收端确认已收到。
|
|||
|
如果Filebeat在发送事件的过程中关闭,它不会等待输出确认所有收到事件。
|
|||
|
发送到输出但在Filebeat关闭前未确认的任何事件在重新启动Filebeat时会再次发送。
|
|||
|
这可以确保每个事件至少发送一次,但最终会将重复事件发送到输出。
|
|||
|
也可以通过设置shutdown_timeout选项来配置Filebeat以在关闭之前等待特定时间。
|
|||
|
|
|||
|
为什么使用filebeat?
|
|||
|
|
|||
|
Filebeat是一种轻量级的日志搜集器,其不占用系统资源,自出现之后,迅速更新了原有的elk架构。Filebeats将收集到的数据发送给Logstash解析过滤,在Filebeats与Logstash传输数据的过程中,为了安全性,可以通过ssl认证来加强安全性。之后将其发送到Elasticsearch存储,并由kibana可视化分析。
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
![image-20240605154446437](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240605154446437.png)
|
|||
|
|
|||
|
#### 2.启动参数
|
|||
|
|
|||
|
```
|
|||
|
-c, --c FILE
|
|||
|
指定用于Filebeat的配置文件。 你在这里指定的文件是相对于path.config。 如果未指定-c标志,则使用默认配置文件filebeat.yml。
|
|||
|
-d, --d SELECTORS
|
|||
|
启用对指定选择器的调试。 对于选择器,可以指定逗号分隔的组件列表,也可以使用-d“*”为所有组件启用调试。 例如,-d “publish”显示所有“publish”相关的消息。
|
|||
|
-e, --e
|
|||
|
记录到stderr并禁用syslog /文件输出。
|
|||
|
-v, --v
|
|||
|
记录INFO级别的消息。
|
|||
|
|
|||
|
1.测试filebeat启动后,查看相关输出信息:
|
|||
|
./filebeat -e -c filebeat.yml -d "publish"
|
|||
|
|
|||
|
2.后台方式启动filebeat:
|
|||
|
nohup ./filebeat -e -c filebeat.yml >/dev/null 2>&1 &
|
|||
|
将所有标准输出及标准错误输出到/dev/null空设备,即没有任何输出
|
|||
|
nohup ./filebeat -e -c filebeat.yml > filebeat.log &
|
|||
|
|
|||
|
nohup ./filebeat -c filebeat.yml &
|
|||
|
|
|||
|
3.停止filebeat:
|
|||
|
|
|||
|
ps -ef |grep filebeat | kill -9 进程号
|
|||
|
```
|
|||
|
|
|||
|
#### 3.配置参数
|
|||
|
|
|||
|
```shell
|
|||
|
############### Filebeat 配置文件说明#############
|
|||
|
filebeat:
|
|||
|
# List of prospectors to fetch data.
|
|||
|
prospectors:
|
|||
|
-
|
|||
|
# paths指定要监控的日志
|
|||
|
paths:
|
|||
|
- /var/log/*.log
|
|||
|
|
|||
|
#指定被监控的文件的编码类型使用plain和utf-8都是可以处理中文日志的。
|
|||
|
# Some sample encodings:
|
|||
|
# plain, utf-8, utf-16be-bom, utf-16be, utf-16le, big5, gb18030, gbk,
|
|||
|
# hz-gb-2312, euc-kr, euc-jp, iso-2022-jp, shift-jis, ...
|
|||
|
#encoding: plain
|
|||
|
|
|||
|
#指定文件的输入类型log(默认)或者stdin。
|
|||
|
input_type: log
|
|||
|
|
|||
|
# 在输入中排除符合正则表达式列表的那些行
|
|||
|
# exclude_lines: ["^DBG"]
|
|||
|
|
|||
|
# 包含输入中符合正则表达式列表的那些行默认包含所有行include_lines执行完毕之后会执行exclude_lines。
|
|||
|
# include_lines: ["^ERR", "^WARN"]
|
|||
|
|
|||
|
# 忽略掉符合正则表达式列表的文件默认为每一个符合paths定义的文件都创建一个harvester。
|
|||
|
# exclude_files: [".gz$"]
|
|||
|
|
|||
|
# 向输出的每一条日志添加额外的信息比如“level:debug”方便后续对日志进行分组统计。默认情况下会在输出信息的fields子目录下以指定的新增fields建立子目录例如fields.level。
|
|||
|
#fields:
|
|||
|
# level: debug
|
|||
|
# review: 1
|
|||
|
|
|||
|
# 如果该选项设置为true则新增fields成为顶级目录而不是将其放在fields目录下。自定义的field会覆盖filebeat默认的field。
|
|||
|
#fields_under_root: false
|
|||
|
|
|||
|
# 可以指定Filebeat忽略指定时间段以外修改的日志内容比如2h两个小时或者5m(5分钟)。
|
|||
|
#ignore_older: 0
|
|||
|
|
|||
|
# 如果一个文件在某个时间段内没有发生过更新则关闭监控的文件handle。默认1h,change只会在下一次scan才会被发现
|
|||
|
#close_older: 1h
|
|||
|
|
|||
|
# 设定Elasticsearch输出时的document的type字段也可以用来给日志进行分类。Default: log
|
|||
|
#document_type: log
|
|||
|
|
|||
|
# Filebeat以多快的频率去prospector指定的目录下面检测文件更新比如是否有新增文件如果设置为0s则Filebeat会尽可能快地感知更新占用的CPU会变高。默认是10s。
|
|||
|
#scan_frequency: 10s
|
|||
|
|
|||
|
# 每个harvester监控文件时使用的buffer的大小。
|
|||
|
#harvester_buffer_size: 16384
|
|||
|
|
|||
|
# 日志文件中增加一行算一个日志事件max_bytes限制在一次日志事件中最多上传的字节数多出的字节会被丢弃。The default is 10MB.
|
|||
|
#max_bytes: 10485760
|
|||
|
|
|||
|
# 适用于日志中每一条日志占据多行的情况比如各种语言的报错信息调用栈。这个配置的下面包含如下配置
|
|||
|
#multiline:
|
|||
|
|
|||
|
# The regexp Pattern that has to be matched. The example pattern matches all lines starting with [
|
|||
|
#pattern: ^\[
|
|||
|
|
|||
|
# Defines if the pattern set under pattern should be negated or not. Default is false.
|
|||
|
#negate: false
|
|||
|
|
|||
|
# Match can be set to "after" or "before". It is used to define if lines should be append to a pattern
|
|||
|
# that was (not) matched before or after or as long as a pattern is not matched based on negate.
|
|||
|
# Note: After is the equivalent to previous and before is the equivalent to to next in Logstash
|
|||
|
#match: after
|
|||
|
|
|||
|
# The maximum number of lines that are combined to one event.
|
|||
|
# In case there are more the max_lines the additional lines are discarded.
|
|||
|
# Default is 500
|
|||
|
#max_lines: 500
|
|||
|
|
|||
|
# After the defined timeout, an multiline event is sent even if no new pattern was found to start a new event
|
|||
|
# Default is 5s.
|
|||
|
#timeout: 5s
|
|||
|
|
|||
|
# 如果设置为trueFilebeat从文件尾开始监控文件新增内容把新增的每一行文件作为一个事件依次发送而不是从文件开始处重新发送所有内容。
|
|||
|
#tail_files: false
|
|||
|
|
|||
|
# Filebeat检测到某个文件到了EOF之后每次等待多久再去检测文件是否有更新默认为1s。
|
|||
|
#backoff: 1s
|
|||
|
|
|||
|
# Filebeat检测到某个文件到了EOF之后等待检测文件更新的最大时间默认是10秒。
|
|||
|
#max_backoff: 10s
|
|||
|
|
|||
|
# 定义到达max_backoff的速度默认因子是2到达max_backoff后变成每次等待max_backoff那么长的时间才backoff一次直到文件有更新才会重置为backoff。
|
|||
|
#backoff_factor: 2
|
|||
|
|
|||
|
# 这个选项关闭一个文件,当文件名称的变化。#该配置选项建议只在windows。
|
|||
|
#force_close_files: false
|
|||
|
|
|||
|
# Additional prospector
|
|||
|
#-
|
|||
|
# Configuration to use stdin input
|
|||
|
#input_type: stdin
|
|||
|
|
|||
|
# spooler的大小spooler中的事件数量超过这个阈值的时候会清空发送出去不论是否到达超时时间。
|
|||
|
#spool_size: 2048
|
|||
|
|
|||
|
# 是否采用异步发送模式(实验!)
|
|||
|
#publish_async: false
|
|||
|
|
|||
|
# spooler的超时时间如果到了超时时间spooler也会清空发送出去不论是否到达容量的阈值。
|
|||
|
#idle_timeout: 5s
|
|||
|
|
|||
|
# 记录filebeat处理日志文件的位置的文件
|
|||
|
registry_file: /var/lib/filebeat/registry
|
|||
|
|
|||
|
# 如果要在本配置文件中引入其他位置的配置文件可以写在这里需要写完整路径但是只处理prospector的部分。
|
|||
|
#config_dir:
|
|||
|
|
|||
|
|
|||
|
############################# Output ############
|
|||
|
|
|||
|
# 输出到数据配置.单个实例数据可以输出到elasticsearch或者logstash选择其中一种注释掉另外一组输出配置。
|
|||
|
output:
|
|||
|
|
|||
|
### 输出数据到Elasticsearch
|
|||
|
elasticsearch:
|
|||
|
# IPv6 addresses should always be defined as: https://[2001:db8::1]:9200
|
|||
|
hosts: ["localhost:9200"]
|
|||
|
|
|||
|
# 输出认证.
|
|||
|
#protocol: "https"
|
|||
|
#username: "admin"
|
|||
|
#password: "s3cr3t"
|
|||
|
|
|||
|
# 启动进程数.
|
|||
|
#worker: 1
|
|||
|
|
|||
|
# 输出数据到指定index default is "filebeat" 可以使用变量[filebeat-]YYYY.MM.DD keys.
|
|||
|
#index: "filebeat"
|
|||
|
|
|||
|
# 一个模板用于设置在Elasticsearch映射默认模板加载是禁用的,没有加载模板这些设置可以调整或者覆盖现有的加载自己的模板
|
|||
|
#template:
|
|||
|
|
|||
|
# Template name. default is filebeat.
|
|||
|
#name: "filebeat"
|
|||
|
|
|||
|
# Path to template file
|
|||
|
#path: "filebeat.template.json"
|
|||
|
|
|||
|
# Overwrite existing template
|
|||
|
#overwrite: false
|
|||
|
|
|||
|
# Optional HTTP Path
|
|||
|
#path: "/elasticsearch"
|
|||
|
|
|||
|
# Proxy server url
|
|||
|
#proxy_url: http://proxy:3128
|
|||
|
|
|||
|
# 发送重试的次数取决于max_retries的设置默认为3
|
|||
|
#max_retries: 3
|
|||
|
|
|||
|
# 单个elasticsearch批量API索引请求的最大事件数。默认是50。
|
|||
|
#bulk_max_size: 50
|
|||
|
|
|||
|
# elasticsearch请求超时事件。默认90秒.
|
|||
|
#timeout: 90
|
|||
|
|
|||
|
# 新事件两个批量API索引请求之间需要等待的秒数。如果bulk_max_size在该值之前到达额外的批量索引请求生效。
|
|||
|
#flush_interval: 1
|
|||
|
|
|||
|
# elasticsearch是否保持拓扑。默认false。该值只支持Packetbeat。
|
|||
|
#save_topology: false
|
|||
|
|
|||
|
# elasticsearch保存拓扑信息的有效时间。默认15秒。
|
|||
|
#topology_expire: 15
|
|||
|
|
|||
|
# 配置TLS参数选项如证书颁发机构等用于基于https的连接。如果tls丢失主机的CAs用于https连接elasticsearch。
|
|||
|
#tls:
|
|||
|
# List of root certificates for HTTPS server verifications
|
|||
|
#certificate_authorities: ["/etc/pki/root/ca.pem"]
|
|||
|
|
|||
|
# Certificate for TLS client authentication
|
|||
|
#certificate: "/etc/pki/client/cert.pem"
|
|||
|
|
|||
|
# Client Certificate Key
|
|||
|
#certificate_key: "/etc/pki/client/cert.key"
|
|||
|
|
|||
|
# Controls whether the client verifies server certificates and host name.
|
|||
|
# If insecure is set to true, all server host names and certificates will be
|
|||
|
# accepted. In this mode TLS based connections are susceptible to
|
|||
|
# man-in-the-middle attacks. Use only for testing.
|
|||
|
#insecure: true
|
|||
|
|
|||
|
# Configure cipher suites to be used for TLS connections
|
|||
|
#cipher_suites: []
|
|||
|
|
|||
|
# Configure curve types for ECDHE based cipher suites
|
|||
|
#curve_types: []
|
|||
|
|
|||
|
# Configure minimum TLS version allowed for connection to logstash
|
|||
|
#min_version: 1.0
|
|||
|
|
|||
|
# Configure maximum TLS version allowed for connection to logstash
|
|||
|
#max_version: 1.2
|
|||
|
|
|||
|
|
|||
|
### 发送数据到logstash 单个实例数据可以输出到elasticsearch或者logstash选择其中一种注释掉另外一组输出配置。
|
|||
|
#logstash:
|
|||
|
# Logstash 主机地址
|
|||
|
#hosts: ["localhost:5044"]
|
|||
|
|
|||
|
# 配置每个主机发布事件的worker数量。在负载均衡模式下最好启用。
|
|||
|
#worker: 1
|
|||
|
|
|||
|
# #发送数据压缩级别
|
|||
|
#compression_level: 3
|
|||
|
|
|||
|
# 如果设置为TRUE和配置了多台logstash主机输出插件将负载均衡的发布事件到所有logstash主机。
|
|||
|
#如果设置为false输出插件发送所有事件到随机的一台主机上如果选择的不可达将切换到另一台主机。默认是false。
|
|||
|
#loadbalance: true
|
|||
|
|
|||
|
# 输出数据到指定index default is "filebeat" 可以使用变量[filebeat-]YYYY.MM.DD keys.
|
|||
|
#index: filebeat
|
|||
|
|
|||
|
# Optional TLS. By default is off.
|
|||
|
#配置TLS参数选项如证书颁发机构等用于基于https的连接。如果tls丢失主机的CAs用于https连接elasticsearch。
|
|||
|
#tls:
|
|||
|
# List of root certificates for HTTPS server verifications
|
|||
|
#certificate_authorities: ["/etc/pki/root/ca.pem"]
|
|||
|
|
|||
|
# Certificate for TLS client authentication
|
|||
|
#certificate: "/etc/pki/client/cert.pem"
|
|||
|
|
|||
|
# Client Certificate Key
|
|||
|
#certificate_key: "/etc/pki/client/cert.key"
|
|||
|
|
|||
|
# Controls whether the client verifies server certificates and host name.
|
|||
|
# If insecure is set to true, all server host names and certificates will be
|
|||
|
# accepted. In this mode TLS based connections are susceptible to
|
|||
|
# man-in-the-middle attacks. Use only for testing.
|
|||
|
#insecure: true
|
|||
|
|
|||
|
# Configure cipher suites to be used for TLS connections
|
|||
|
#cipher_suites: []
|
|||
|
|
|||
|
# Configure curve types for ECDHE based cipher suites
|
|||
|
#curve_types: []
|
|||
|
|
|||
|
|
|||
|
### 文件输出将事务转存到一个文件每个事务是一个JSON格式。主要用于测试。也可以用作logstash输入。
|
|||
|
#file:
|
|||
|
# 指定文件保存的路径。
|
|||
|
#path: "/tmp/filebeat"
|
|||
|
|
|||
|
# 文件名。默认是 Beat 名称。上面配置将生成 packetbeat, packetbeat.1, packetbeat.2 等文件。
|
|||
|
#filename: filebeat
|
|||
|
|
|||
|
# 定义每个文件最大大小。当大小到达该值文件将轮滚。默认值是1000 KB
|
|||
|
#rotate_every_kb: 10000
|
|||
|
|
|||
|
# 保留文件最大数量。文件数量到达该值将删除最旧的文件。默认是7一星期。
|
|||
|
#number_of_files: 7
|
|||
|
|
|||
|
|
|||
|
### Console output 标准输出JSON 格式。
|
|||
|
# console:
|
|||
|
#如果设置为TRUE事件将很友好的格式化标准输出。默认false。
|
|||
|
#pretty: false
|
|||
|
|
|||
|
|
|||
|
############################# Shipper #############
|
|||
|
|
|||
|
shipper:
|
|||
|
# #日志发送者信息标示
|
|||
|
# 如果没设置以hostname名自居。该名字包含在每个发布事务的shipper字段。可以以该名字对单个beat发送的所有事务分组。
|
|||
|
#name:
|
|||
|
|
|||
|
# beat标签列表包含在每个发布事务的tags字段。标签可用很容易的按照不同的逻辑分组服务器。
|
|||
|
#例如一个web集群服务器可以对beat添加上webservers标签然后在kibana的visualisation界面以该标签过滤和查询整组服务器。
|
|||
|
#tags: ["service-X", "web-tier"]
|
|||
|
|
|||
|
# 如果启用了ignore_outgoing选项beat将忽略从运行beat服务器上所有事务。
|
|||
|
#ignore_outgoing: true
|
|||
|
|
|||
|
# 拓扑图刷新的间隔。也就是设置每个beat向拓扑图发布其IP地址的频率。默认是10秒。
|
|||
|
#refresh_topology_freq: 10
|
|||
|
|
|||
|
# 拓扑的过期时间。在beat停止发布其IP地址时非常有用。当过期后IP地址将自动的从拓扑图中删除。默认是15秒。
|
|||
|
#topology_expire: 15
|
|||
|
|
|||
|
# Internal queue size for single events in processing pipeline
|
|||
|
#queue_size: 1000
|
|||
|
|
|||
|
# GeoIP数据库的搜索路径。beat找到GeoIP数据库后加载然后对每个事务输出client的GeoIP位置目前只有Packetbeat使用该选项。
|
|||
|
#geoip:
|
|||
|
#paths:
|
|||
|
# - "/usr/share/GeoIP/GeoLiteCity.dat"
|
|||
|
# - "/usr/local/var/GeoIP/GeoLiteCity.dat"
|
|||
|
|
|||
|
|
|||
|
############################# Logging #############
|
|||
|
|
|||
|
|
|||
|
# 配置beats日志。日志可以写入到syslog也可以是轮滚日志文件。默认是syslog。
|
|||
|
logging:
|
|||
|
|
|||
|
# 如果启用发送所有日志到系统日志。
|
|||
|
#to_syslog: true
|
|||
|
|
|||
|
# 日志发送到轮滚文件。
|
|||
|
#to_files: false
|
|||
|
|
|||
|
#
|
|||
|
files:
|
|||
|
# 日志文件目录。
|
|||
|
#path: /var/log/mybeat
|
|||
|
|
|||
|
# 日志文件名称
|
|||
|
#name: mybeat
|
|||
|
|
|||
|
# 日志文件的最大大小。默认 10485760 (10 MB)。
|
|||
|
rotateeverybytes: 10485760 # = 10MB
|
|||
|
|
|||
|
# 保留日志周期。 默认 7。值范围为2 到 1024。
|
|||
|
#keepfiles: 7
|
|||
|
|
|||
|
# Enable debug output for selected components. To enable all selectors use ["*"]
|
|||
|
# Other available selectors are beat, publish, service
|
|||
|
# Multiple selectors can be chained.
|
|||
|
#selectors: [ ]
|
|||
|
|
|||
|
# 日志级别。debug, info, warning, error 或 critical。如果使用debug但没有配置selectors* selectors将被使用。默认error。
|
|||
|
#level: error
|
|||
|
|
|||
|
```
|
|||
|
|
|||
|
#### 4.部署使用
|
|||
|
|
|||
|
```
|
|||
|
vi /usr/local/logstash/conf.d/filebeat-client.conf
|
|||
|
input {
|
|||
|
kafka {
|
|||
|
type => "kafka-logs"
|
|||
|
bootstrap_servers => "172.17.0.4:9092,172.17.0.5:9092"
|
|||
|
group_id => "logstash"
|
|||
|
auto_offset_reset => "earliest"
|
|||
|
topics => "kafka_run_log"
|
|||
|
consumer_threads => 5
|
|||
|
decorate_events => true
|
|||
|
}
|
|||
|
}
|
|||
|
|
|||
|
output {
|
|||
|
elasticsearch {
|
|||
|
index => 'kafka-run-log-%{+YYYY.MM.dd}'
|
|||
|
hosts => ["172.17.0.2:9200","172.17.0.3:9200"]
|
|||
|
}
|
|||
|
}
|
|||
|
|
|||
|
4.在kafka中创建topic,跟logstash保持一致
|
|||
|
[root@xingdian conf.d]# bin/kafka-topics.sh --create --zookeeper 172.17.0.4:2181 --replication-factor 1 --partitions 1 --topic kafka_run_log
|
|||
|
查看topics
|
|||
|
[root@xingdian conf.d]# /usr/local/kafka_2.11-2.1.0/bin/kafka-topics.sh --zookeeper 172.17.0.4:2181 --list
|
|||
|
|
|||
|
5.编写filebeat的配置文件filebeat.yml
|
|||
|
grep -Evn "^$|#" filebeat.yml (修改的内容,大致位置如下)
|
|||
|
12:filebeat.prospectors:
|
|||
|
18:- input_type: log
|
|||
|
21: paths:
|
|||
|
23: - /var/log/httpd/access_log 想要分析的日志文件
|
|||
|
92:output.logstash:
|
|||
|
94: hosts: ["10.0.0.72:8027"] logstash的主机和端口号 这里是输出给logstash
|
|||
|
与kafka的配置文件:
|
|||
|
21:- type: log
|
|||
|
24: enabled: true
|
|||
|
27: paths:
|
|||
|
28: - /var/log/yum.log
|
|||
|
146:output.kafka:
|
|||
|
147: enabled: true
|
|||
|
148: hosts: ["172.17.0.4:9092","172.17.0.5:9092"]
|
|||
|
149: topic: 'kafka_run_log'
|
|||
|
|
|||
|
|
|||
|
6.启动kafka服务器的logstash
|
|||
|
/usr/local/logstash/bin/logstash -f /usr/local/logstash/conf.d/filebeat-client.conf
|
|||
|
|
|||
|
7.启动filebeat
|
|||
|
./filebeat -c filebeat.yml
|
|||
|
|
|||
|
8.es集群访问查看
|
|||
|
|
|||
|
9.kibana集群测试
|
|||
|
```
|
|||
|
|
|||
|
## 七:Packetbeat
|
|||
|
|
|||
|
```shell
|
|||
|
一、Packetbeat 概述
|
|||
|
Packetbeat 轻量型网络数据采集器,用于深挖网线上传输的数据,了解应用程序动态。Packetbeat 是一款轻量型网络数据包分析器,能够将数据发送至 Logstash 或 Elasticsearch等。
|
|||
|
|
|||
|
目前,Packetbeat支持以下协议:
|
|||
|
• ICMP (v4 and v6)
|
|||
|
• DNS
|
|||
|
• HTTP
|
|||
|
• AMQP 0.9.1
|
|||
|
• Cassandra
|
|||
|
• Mysql
|
|||
|
• PostgreSQL
|
|||
|
• Redis
|
|||
|
• Thrift-RPC
|
|||
|
• MongoDB
|
|||
|
• Memcache
|
|||
|
• TLS
|
|||
|
二、Packetbeat 安装配置
|
|||
|
下载网址:https://www.elastic.co/downloads/beats
|
|||
|
1.下载部署安装
|
|||
|
4.logstash配置文件
|
|||
|
input {
|
|||
|
kafka {
|
|||
|
type => "packetbeat-logs"
|
|||
|
bootstrap_servers => "172.17.0.4:9092,172.17.0.5:9092"
|
|||
|
group_id => "packetbeat"
|
|||
|
auto_offset_reset => "earliest"
|
|||
|
topics => "packetbeat_log"
|
|||
|
consumer_threads => 5
|
|||
|
decorate_events => true
|
|||
|
}
|
|||
|
}
|
|||
|
|
|||
|
output {
|
|||
|
elasticsearch {
|
|||
|
index => 'packetbeat-%{+YYYY.MM.dd}'
|
|||
|
hosts => ["172.17.0.2:9200","172.17.0.3:9200"]
|
|||
|
}
|
|||
|
}
|
|||
|
|
|||
|
3.packetbeat配置文件
|
|||
|
172:output.kafka:
|
|||
|
173: enabled: true
|
|||
|
174: hosts: ["172.17.0.4:9092","172.17.0.5:9092"]
|
|||
|
175: topic: 'packetbeat_log'
|
|||
|
205:processors:
|
|||
|
206: - add_host_metadata: ~
|
|||
|
207: - add_cloud_metadata: ~
|
|||
|
|
|||
|
4.启动
|
|||
|
先启动logstash再启动packetbeat
|
|||
|
|
|||
|
5.访问nginx界面
|
|||
|
|
|||
|
6.访问es界面查看
|
|||
|
|
|||
|
7.访问kibana界面查看
|
|||
|
|
|||
|
```
|
|||
|
|