Kafka漏洞修复之CVE-2023-25194修复措施验证

前言

  • 场景介绍

    Kafka最近爆出高危漏洞CNNVD-202302-515,导致Apache Kafka Connect 服务在 2.3.0 至 3.3.2 版本中,由于连接时支持使用基于 JNDI 认证的 SASL JAAS 配置,导致配置在被攻击者可控的情况下,可能通过 JNDI 注入执行任意代码。

    此漏洞不影响 Kafka server (broker),Kafka Connect 服务通常用于在云平台中提供 Kafka 数据迁移、数据同步的管道能力,其默认 HTTP API 开放于 8083 端口

  • 补充

    Apache Kafka Connect 是 Kafka 中用于和其他数据系统传输数据的服务,其独立运行版本可以在 Kafka 发布包中通过 bin/connect-standalone.sh 启动,默认会在 8083 端口开启 HTTP REST API 服务,可对连接器(Connector)的配置进行操作。

风险分析

  • 业务场景

    受漏洞影响的通常是基于 Kafka Connect 提供的:

    1. 数据管道服务(数据迁移、同步);

    2. Kafka 相关的测试服务(用于对 broker 的测试)

  • 前提条件

    从利用条件上,漏洞要成功用于执行任意代码,需要同时满足:

    1. 攻击者可以控制连接器(Connector)的配置;

    2. Kafka 服务能够访问攻击者控制的 LDAP 服务(通常需要能访问互联网);

    3. 基于远程 LDAP 引用注入需要 java 版本小于 11.0.1、8u191、7u201、6u211,本地则需要其 classpath 中加载了可以用于构造利用链的类。

解决方案

  • 升级kafka至3.4.0

    从 Apache Kafka 3.4.0 开始,添加了一个系统属性(“-Dorg.apache.kafka.disallowed.login.modules”) 禁用在 SASL JAAS 配置中使用有问题的登录模块。也由默认“com.sun.security.auth.module.JndiLoginModule”被禁用在 Apache Kafka 3.4.0 中。

    注意:可使用kraft方式替换zookeeper

  • 升级JDK版本

    由于Oracle JDK后期开始收费,所以考虑采用AdoptOpenJDK替换使用,以jdk8为例,升级至8u362,并结合2.3.0 至 3.4.0中的任一版本是否正常运行。

    本文主要结合该场景进行验证,这样升级代价更小

AdoptOpenJDK + Zookeeper + Kafka

  • 概述

    跳过已经安装的Oracle JDK8和Zookeeper,下文不在赘述,主要在Linux环境下配置多版本JDK,并启用OpenJDK,最后安装Kafka验证。

    OpenJDK1.8.0_362 + Zookeeper3.6.3 + Kafka3.4.0

多版本OpenJDK安装切换

  • 安装OpenJDK8

    
        # 切换至非root用户
        su xxxx
    
        # 解压jdk tomcat至相关目录
        tar -zxvf OpenJDK8U-jdk_x64_linux_hotspot_8u362b09.tar.gz -C /opt/nbsp/java/openjdk1.8.0_362
    
    
        # 配置环境变量
        vi /etc/profile
    
    
        # 安装jdk1.8 
        export OPEN_JAVA_HOME=/opt/nbsp/java/openjdk1.8.0_362
        export CLASSPATH=.:${OPEN_JAVA_HOME}/lib/dt.jar:${OPEN_JAVA_HOME}/lib/tools.jar
        export PATH=$PATH:${OPEN_JAVA_HOME}/bin
    
    
        # 配置生效
        source /etc/profile
    
    
        # 验证
        java -version
    
    
    
  • 切换不同版本JDK

    
        # 发现并不是新安装的jdk版本,使用命令更改当前系统使用的jdk版本
        alternatives --config java
    
        # 如果没有新安装的版本jdk,需要使用命令将新安装的jdk放入到java bin中
        alternatives --install /usr/bin/java java /opt/nbsp/java/openjdk1.8.0_362/bin/java 2
        alternatives --install /usr/bin/java java /opt/nbsp/java/jdk1.8.0_191/bin/java 3
    
        # 如果设置路径错了,可以使用 以下命令 删除一些 错误的 程序选择路劲
        alternatives --remove java /opt/nbsp/java/openjdk1.8.0_362/bin
    

Zookeeper安装

  • 主要过程

    zookeeper之前已经安装过,本文直接略过。下面是常用启停命令

    
        
        # 启动zookeeper(进入对应的新版本目录)
        bin/zkServer.sh start
    
        # 查看zookeeper状态(进入对应的新版本目录)
        bin/zkServer.sh status
    
        # 停止zookeeper(进入对应的新版本目录)
        bin/zkServer.sh stop
    
    

Kafka安装与使用

  • 安装Kafka

    
        # 创建文件夹kafka
        mkdir /home/nbsp/java/kafka
    
        # 解压压缩包到 /usr/kafka目录下
        tar -zxvf kafka_2.13-3.4.0.tgz -C /home/nbsp/java/kafka/
    
        # 创建日志文件夹 kafka-logs
        mkdir /home/nbsp/java/kafka/kafka_2.13-3.4.0/kafka-logs
    
        # 修改kafka的配置文件
        vim bin/config/server.properties
    
        #broker.id=0
        #log.dirs=/usr/local/kafka/kafka_2.12-2.2.0/kafka-logs
        #zookeeper.connect=localhost:2181
        #delete.topic.enble=true
        #advertised.listeners=PLAINTEXT://localhost:9092
    
    
    
  • 配置环境变量

    方式一:修改/etc/profile

    
    
        # 修改 profile 文件 (我使用的该方法,也推荐用这一种,两钟区别需自行查阅相关资料)
        vim /etc/profile
    
        #export KAFKA_HOME=/home/nbsp/java/kafka/kafka_2.13-3.4.0
        #export PATH=KAFKA_HOME/bin:$PATH
    
        # 使配置生效
        source /etc/profile
    
    
    

    方式二:修改 .bashrc 文件

    
    
        # 输入命令修改环境变量
        vim ~/.bashrc
    
        # 直接在最下面添加下面这些配置
        # export KAFKA_HOME=/usr/local/kafka/kafka_2.13-3.4.0
        # export PATH=KAFKA_HOME/bin:$PATH
    
        # 使配置生效
        source ~/.bashrc
    
    
    
  • 启动kafka

    
        # 查看当前zookeeper状态
        /home/nbsp/java/zookeeper/apache-zookeeper-3.6.3-bin/bin/zkServer.sh status
    
        # 启动kafka(在 kafka 的根目录下使用命令)
        ./bin/kafka-server-start.sh config/server.properties &
    
        # 停止kafka
        # ./bin/kafka-server-start.sh config/server.properties &
    
    
    
    
  • 创建Topic

    
        
        # 创建topic(必须指定bootstrap-server)
        ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --partitions 1 --replication-factor 1 --topic nbsp
    
        # 查看 kafka 的 topic 情况
        ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --list 
    
        # 描述 topic,查看topic的详细信息
        bin/kafka-topics.sh --bootstrap-server localhost:9092 --describe --topic nbsp
    
    
    
    
    
  • 消息生产消费

    
        # 生产消息,生产者客户端命令,在 kafka 的根目录下使用命令
        ./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic nbsp
    
        # bin/kafka-console-producer.sh --bootstrap-server localhost:9092 --topic nbsp
    
        # 消费消息,消费者客户端命令,在 kafka 的根目录下使用命令
        ./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic nbsp --from-beginning
    
        # bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic nbsp
    
    
    
  • 删除topic

    
    
      ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --delete --topic nbsp  
    
    
    
    
    
  • 注意事项

    注意:kafka在启动服务之前,在server.properties文件中要设定3个参数:broker.id、log.dirs、zookeeper.connect

  • 主要参数

    delete.topic.enble=true :对以后删除kafka中的topic有影响,在文件尾部添加上即可

    listeners=PLAINTEXT://:9092 :这个命令也很重要,需要记住(这个命令在文章里先不做分析)

    advertised.listeners=PLAINTEXT://localhost:9092:这个localhost我用的是主机ip地址

  • 常见问题

    不同版本创建topic区别

    
    
        #  kafka3.0.0及以上需要指定bootstrap-server,且剔除zookeeper参数(因为可以使用kraft替代zookeeper)
        ./bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --partitions 1 --replication-factor 1 --topic nbsp
    
        # kafka3.0.0以下
        ./bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic nbsp
    
    
    

    ZK 模式和 Kraft 模式

    Kafka 2.8.0 开始可以摆脱 ZK,这样做的好处有以下几个:

    1. Kafka 不再依赖外部框架,而是能够独立运行

    2. controller 管理集群时,不再需要从 zookeeper 中先读取数据,集群性能上升

    3. 由于不依赖 zookeeper,集群扩展时不再受到 zookeeper 读写能力限制

    4. controller 不再动态选举,而是由配置文件规定。这样我们可以有针对性的加强。controller 节点的配置,而不是像以前一样对随机 controller 节点的高负载束手无策

其他

Kafka消息发送流程

  • 原理分析

    在消息发送的过程中,涉及到了两个线程:main 线程和 Sender 线程
    main 线程中创建了一个双端队列 RecordAccumulator,main 线程将消息发送给 RecordAccumulator;
    Sender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka Broker。
    kafka消息发送流程

Linux配置加载顺序

  • 简述

    linux配置读取顺序

  • 登录式方式 shell

    /etc/profile -> /etc/profile.d目录下脚本文件 -> $HOME/.bash_profile(用户环境变量文件) -> $HOME/.bashrc(用户环境变量文件)-> /etc/bashrc(全局环境变量文件)

    /etc/profile > /etc/profile.d/*.sh , /etc/profile.d/sh.local > ~/.bash_profile > ~/.bashrc > ~/.bash_login > ~/.profile >

  • 非登录式 Shell

    只会加载$HOME/.bashrc(用户环境配置文件) -> /etc/bashrc(全局环境变量文件)

    如果以非登录的方式启动 Shell,那么就不会读取以上所说的配置文件,而是直接读取 ~/.bashrc。

    所以一般建议将配置直接添加在 ~/.bashrc 中,这样不管是登录式 Shell 还是 非登录式 Shell 都可以读到。

  • /etc/profile源码解析

    
                
        for i in /etc/profile.d/*.sh /etc/profile.d/sh.local ; do
            if [ -r "$i" ]; then
                if [ "${-#*i}" != "$-" ]; then
                    . "$i"
                else
                    . "$i" >/dev/null
                fi
            fi
        done
    
        # $- 显示shell使用的当前选项
        # $* 这个程式的所有参数,此选项参数可超过9个。
        # $# 这个程式的参数个数
    
    
    

    遍历 /etc/profile.d 目录下所有以 .sh 结尾的文件和 sh.local 文件。判断它们是否可读([ -r “$i”]),如果可读,判断当前 Shell启动方式是不是交互式($- 中包含 i)的,如果是交互式的,在当前 Shell 进程中执行该脚本(. “$i”,source “$i” 的简写, Shell 的模块化方式),否则,也在当前 Shell 进程中执行该脚本,只不过将输出重定向到了 /dev/null 中。

    ${-#*i} 这个表达式的意思是:从左向右,在 - 变量中找到第一个 i ,并截取 i 之后的子串

参考链接

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值