Spring boot kafka执行多次多次消费


试试注释掉
retries 失败后重复发送次数
max-partitton-fetch-byte 发送最大消息
auto-commit-interval 间隔

kafka:
    bootstrap-servers: 127.0.0.1:9092 #指定kafka server的地址,集群配多个,中间,逗号隔开
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer		#发送key的类型
      value-serializer: org.apache.kafka.common.serialization.ByteArraySerializer	#发送value的类型
#      retries: 1				#失败后重复发送次数
    consumer:
      group-id: default_consumer_group #群组ID
      enable-auto-commit: false		#停止(取消)自动发送
#      max-partitton-fetch-byte: 15728640	#发送最大消息
#      auto-commit-interval: 1000			#间隔
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer		#接收key的类型
      value-deserializer: org.apache.kafka.common.serialization.ByteArrayDeserializer	#接收value的类型

其他步骤

  1. kafka服务自带zookeeper下载与启动
  2. Spring boot配置kafka服务
  3. kafka生产者发送消息成功回调
  4. kafka根据ip端口获取消息队列上的topic
  5. kafka动态设置监听哪些topic
  6. 动态启动关闭kafka监听、设置默认不监听kafka
  7. kafka设置:1只接受消息、不发送消息;2只发送消息不接受消息;3既接受消息也发送消息;4既不接收消息也不发送消息
  8. kafka会把历史数据都获取下来
  9. Spring boot kafka执行多次多次消费
Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐