1.导入依赖

<dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>

2.在application-prod.yml里配置kafka

kafka:
  bootstrap-servers: 192.168.179.178:9092
#生产者
  producer:
    acks: 1
    retries: 3
    key-serializer: org.apache.kafka.common.serialization.StringSerializer
    value-serializer: org.apache.kafka.common.serialization.StringSerializer
#消费者
  consumer:
  #默认消费组名
    group-id: kafka-consumer3
  #关闭自动提交
    enable-auto-commit: false
  #提交间隔的毫秒 spring.kafka.consumer.auto-commit-interval.ms=60000
  # kafka消费指定每次最大消费消息数量
    max-poll-records: 50
  #当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
    #auto-offset-reset: earliest
    auto-offset-reset: latest
    key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  listener:
  #手动提交
    ack-mode: manual_immediate
  # 设置批量消费
    type: batch
  # 并发数设置
    concurrency: 3

3.kafka发送消息和消费监听等相关知识

可以到此网址学习航歌-SpringBoot / Cloud-第5页

hangge.com 做最好的开发者知识平台 - SpringBoot / Cloud分类文章列表https://www.hangge.com/blog/cache/category_80_5.html

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐