Filebeat部署+Kafka接收消息

一、下载与解压Filebeat

1.Filebeat官方下载地址:https://www.elastic.co/cn/downloads/past-releases#filebeat
我下的是7.12版本,链接: link
在这里插入图片描述
2.上传压缩包

解压并重命名文件夹
tar -zxvf filebeat-7.12.0-linux-x86_64.tar.gz
mv filebeat-7.12.0-linux-x86_64 filebeat
在这里插入图片描述
home是用户目录,个人习惯放在这个,你们也可以放在别的目录里。

二、配置Filebeat

修改filebeat配置文件,把filebeat收集到的日志保存到kafka消息队列中。
只需要修改input和output配置。
input配置(输入配置):
filebeat的输入配置在filebeat.inputs节点下。type为log,表明这是从文件获取输入。我们需要将log类型下的enabled的值置为true,在paths中编辑需要获取输入的文件,也可以使用通配符。例如采集的是日志文件。
进入filebeat目录编辑filebeat.yml文件
在这里插入图片描述
采集的日志是自己创建的,后续添加信息可以被kafka实时接收到。

将path原来的路径注释掉。
output配置(输出配置):
我们需要将读取到的日志输出到Kafka集群中,而配制文件中默认没有Kafka集群的输出配置,因此需要在其中增加,并将output.elasticsearch和output.logstash都给注释掉。我们增加的Kafka集群配置如下图所示:
在这里插入图片描述
kafka中如果不存在这个topic,则会自动创建。

启动filebeat

./filebeat -e -c filebeat.yml

在这里插入图片描述

启动Kafka

注意:在启动kafka前先启动ZooKeeper,再开启一个session会话

  1. ZooKeeper启动:
    进入ZooKeeper的bin目录
    ./zkServer.sh start
    在这里插入图片描述
    使用netstat -ano | grep 2181 命令监听端口
    在这里插入图片描述
  2. kafka启动:
    进入 bin目录:
    ./kafka-server-start.sh …/config/server.properties 启动服务
    在这里插入图片描述
  3. 查看topic列表

./kafka-topics.sh --list --zookeeper 192.168.192.132:2181
在这里插入图片描述
可以看到产生了新的topic为newtest,接下来启动一个消费者去查看filebeat发送过来的消息,能看到消息说明我们的filebeat的output.kafka配置成功。
./kafka-console-consumer.sh --bootstrap-server 192.168.192.132:9092 --topic test --from-beginning

在这里插入图片描述
配置完成

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐