Connection to node -1 could not be established. Broker may not be available.

微服务项目配置继承kafka报错

Connection to node -1 could not be established. Broker may not be available. 可能是配置文件出现了问题。下面我贴出错误的和正确的配置

错误的配置

server:
  port: 6060
spring:
  application:
    name: ams-manager-system
  datasource:
    url: jdbc:mysql://127.0.0.1:3306/ams_system?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8
    driver-class-name: com.mysql.cj.jdbc.Driver
    username: root
    password: 123
eureka:
  client:
    service-url:
      defaultZone: http://localhost:10086/eureka

swagger:
  base-package: com.ams.manager.system.impl.service
  title: SpringCloud2.x构建微服务家庭专区项目-系统服务接口
  description: 该项目“基于SpringCloud2.x构建微服务项目”吴坚版权所有,未经过允许的情况下,私自分享视频和源码属于违法行为。
  version: 1.1
  terms-of-service-url: www.wujian.com
  contact:
    name: 全网最帅架构师-吴坚
    email: 1239133508@qq.com
    url: www.wujian.com
  enabled: true


# kafka
  kafka:
    # kafka服务器地址(可以多个)
    bootstrap-servers: 192.168.103.42:9092
    consumer:
      # 指定一个默认的组名
      group-id: kafka2
      # earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
      # latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
      # none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
      auto-offset-reset: earliest
      # key/value的反序列化
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      # key/value的序列化
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      # 批量抓取
      batch-size: 65536
      # 缓存容量
      buffer-memory: 524288
      # 服务器地址
      bootstrap-servers: 192.168.103.42:9092
    listener:
      missing-topics-fatal: false  #如果主题不存在,就会自动创建

正确的配置

# kafka
spring:
  datasource:
    url: jdbc:mysql://127.0.0.1:3306/ams_system?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8
    driver-class-name: com.mysql.cj.jdbc.Driver
    username: root
    password: 123
  kafka:
    # kafka服务器地址(可以多个)
    bootstrap-servers: 192.168.103.42:9092
    consumer:
      # 指定一个默认的组名
      group-id: kafka2
      # earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
      # latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
      # none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
      auto-offset-reset: earliest
      # key/value的反序列化
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      # key/value的序列化
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      # 批量抓取
      batch-size: 65536
      # 缓存容量
      buffer-memory: 524288
      # 服务器地址
      bootstrap-servers: 192.168.103.42:9092
    listener:
      missing-topics-fatal: false  #如果主题不存在,就会自动创建
  cloud:
    sentinel:
      transport:
        dashboard: 127.0.0.1:8718
      eager: true
  application:
    name: jm-kafka
swagger:
  base-package: com.ams.manager.system.impl.service
  title: SpringCloud2.x构建微服务家庭专区项目-系统服务接口
  description: 该项目“基于SpringCloud2.x构建微服务项目”仙仙版权所有,未经过允许的情况下,私自分享视频和源码属于违法行为。
  version: 1.1
  terms-of-service-url: www.wujian.com
  contact:
    name: 全网最帅架构师-仙仙
    email: 1239133508@qq.com
    url: www.wujian.com
  enabled: true
server:
  port: 8083

结论

为什么会出现错误呢?
我们对比两个配置文件发现,kafka的配置中间穿插了eureka的配置和swagger的配置。但是kafak的配置是属于spring下面的配置。我们eureka和swagger得配置,将他折成了两段。我们以后这样的配置需要注意了,将同一分段下的配置放到一起。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值