问题:
1、因数据量过大,超出Kafka默认消息最大(1M),导致存入Kafka失败
解决方法:
1.1 在yml文件中增加以下配置:
kafka:
bootstrap-servers: 127.0.0.1
producer:
key-serializer: com.fxxx.xxxx
value-serializer: com.fxxx.xxxx
properties:
max.request.size: 104857600
max.message.bytes: 104857600
consumer:
group-id: com_kafka_group
key-deserializer: com.fxxx.xxxx
value-deserializer: ocom.fxxx.xxxx
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/6b3c1ef43cb449dd8eb7e1be1376988d.png)
1.2 在linux的服务器端更改server.properties
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/def23ef33fd34811a806df953fc1ebc6.png)
步骤:
1.2.1 打开配置文件
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/b8b68d91e8134bd18f36938321f62bd9.png)
1.2.2 增加配置信息
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/299958ed1a514988a974b2c07ebdec55.png)
1.2.3 ctrl+O,回车,保存配置,退出界面
1.2.4 重启Kafka
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/aa51e5cc2e9c41619f087f8ffdcb25d4.png)
1.2.5 查看Kafka是否启动
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/ef5d949a541f47e3953f96357d68c4b5.png)
linux相关命令:
打开规定路径的配置文件:
nano /opt/kafka/config/server.properties
关闭Kafka:
/opt/kafka/bin/kafka-server-stop.sh
重启Kafka:
/opt/kafka/bin/kafka-server-start.sh -daemon /opt/kafka/config/server.properties
查看Kafka是否启动:
jps | grep Kafka
message.max.bytes=104857600
含义: 控制 Kafka 服务器接收的单个消息的最大大小。
默认值: 104857600 字节(即 100 MB)。
作用: 该参数限制了 Kafka 服务器允许的单个消息的最大大小。如果消息超过这个大小,Kafka 服务器会拒绝接收和处理该消息,以防止消耗过多的内存资源。
replica.fetch.max.bytes=104857600
含义: 控制 Kafka 中复制数据时从 leader 副本获取的最大数据大小。
默认值: 104857600 字节(即 100 MB)。
作用: 当 Kafka 的 follower 副本从 leader 副本拉取数据时,该参数限制了每次拉取的数据大小。这有助于控制复制过程中的网络流量和服务器资源使用。