此篇文章是我从官网拿来的资料自己打了4个多小时翻译的,给大家参考Server端的配置
NAME | DESCRIPTION | TYPE | DEFAULT | VALID VALUES | IMPORTANCE | ||||||
zookeeper.connect | Zookeeper host string | string |
|
| high | ||||||
advertised.host.name | 打广告的地址,若是设置的话,会提供给producers, consumers,其他broker连接,具体如何使用还未深究 | string |
|
| high | ||||||
advertised.listeners | 打广告的地址,若是设置的话,会提供给producers, consumers,其他broker连接,具体如何使用还未深究 | string |
|
| high | ||||||
advertised.port | 只在“广告”、“听众”或“听众”没有设置时使用。改为使用“广告。听众”。该端口发布给动物园管理员供客户使用。在IaaS环境中,这可能需要与代理绑定的端口不同。如果没有设置,它将发布代理绑定到的端口。 | int |
|
| high | ||||||
auto.create.topics.enable | 启用服务器上的主题自动创建
| boolean | true |
| high | ||||||
auto.leader.rebalance.enable | 是否自动平衡broker之间的分配策略 | boolean | true |
| high | ||||||
background.threads | 一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改 | int | 10 | [1,...] | high | ||||||
broker.id | 每一个broker在集群中的唯一标示,要求是正数。在改变IP地址,不改变broker.id的话不会影响consumers | int | -1 |
| high | ||||||
compression.type | 指定给定主题的最终压缩类型。此配置接受标准压缩编解码器('gzip', 'snappy', 'lz4')。它还接受“uncompressed”,这相当于没有压缩;和“producer”,这意味着保留原始压缩编解码器设置的producer。 | string | producer |
| high | ||||||
delete.topic.enable | 启用删除主题。如果这个配置被关闭,通过管理工具删除主题将不起作用。 | boolean | true |
| high | ||||||
host.name | broker的主机地址,若是设置了,那么会绑定到这个地址上,若是没有,会绑定到所有的接口上,并将其中之一发送到ZK,一般成自己的ip | string | "" |
| high | ||||||
leader.imbalance.check.interval.seconds | 检查leader是否不平衡的时间间隔 | long | 300 |
| high | ||||||
leader.imbalance.per.broker.percentage | leader的不平衡比例,若是超过这个数值,会对分区进行重新的平衡 | int | 10 |
| high | ||||||
listeners | 侦听器列表-逗号分隔的URI列表,我们将侦听和侦听器名称。如果侦听器名称不是安全协议,也必须设置ListEn.SaleTy.Primo.Mp。指定主机名为0.0.0.0以绑定到所有接口。将主机名空到绑定到默认接口。合法听众列表的例子:明文://MyHub:9092,SSL://:9091客户端://0.0.0.0:9092,复制://LoalHoo: 9093
| string |
|
| high | ||||||
log.dir | Kafka数据存放的目录。 | string | /tmp/kafka-logs |
| high | ||||||
log.dirs | Kafka数据存放的目录。可以指定多个目录,中间用逗号分隔,当新partition被创建的时会被存放到当前存放partition最少的目录。 | string |
|
| high | ||||||
log.flush.interval.messages | log文件”sync”到磁盘之前累积的消息条数 因为磁盘IO操作是一个慢操作,但又是一个”数据可靠性”的必要手段 所以此参数的设置,需要在”数据可靠性”与”性能”之间做必要的权衡. 如果此值过大,将会导致每次”fsync”的时间较长(IO阻塞) 如果此值过小,将会导致”fsync”的次数较多,这也意味着整体的client请求有一定的延迟. 物理server故障,将会导致没有fsync的消息丢失. | long | 9223372036854775807 | [1,...] | high | ||||||
log.flush.interval.ms | 仅仅通过interval来控制消息的磁盘写入时机,是不足的. 此参数用于控制”fsync”的时间间隔,如果消息量始终没有达到阀值,但是离上一次磁盘同步的时间间隔 达到阀值,也将触发. | long |
|
| high | ||||||
log.flush.offset.checkpoint.interval.ms | 控制上次固化硬盘的时间点,以便于数据恢复 一般不需要去修改 | int | 60000 | [0,...] | high | ||||||
log.flush.scheduler.interval.ms | 检查是否需要固化到硬盘的时间间隔 | long | 9223372036854775807 |
| high | ||||||
log.flush.start.offset.checkpoint.interval.ms | 更新日志起始偏移的持久记录的频率 | int | 60000 | [0,...] | high | ||||||
log.retention.bytes | topic每个分区的最大文件大小,一个topic的大小限制 = 分区数*log.retention.bytes =-1 没有大小限制 log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖 | long | -1 |
| high | ||||||
log.retention.hours | 在删除日志文件之前的小时数 | int | 168 |
| high | ||||||
log.retention.minutes | 数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据 log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖 | int |
|
| high | ||||||
log.retention.ms | 在删除日志文件(毫秒)之前保留毫秒数,如果未设置,则使用Log.ReaTime.Mess中的值。 | long |
|
| high | ||||||
log.roll.hours | 这个参数会在日志segment没有达到log.segment.bytes设置的大小,也会强制新建一个segment会被 topic创建时的指定参数覆盖 | int | 168 | [1,...] | high | ||||||
log.roll.jitter.hours | 从logRollTimeMillis(以小时为单位)减去的最大浮动,继承于log.roll.jitter.ms属性 | int | 0 | [0,...] | high | ||||||
log.roll.jitter.ms | 从logRollTimeMillis中减去的最大浮动(以毫秒为单位)。 如果未设置,则使用log.roll.jitter.hours中的值 | long |
|
| high | ||||||
log.roll.ms | 新日志段推出之前的最长时间(以毫秒为单位)。 如果未设置,则使用log.roll.hours中的值 | long |
|
| high | ||||||
log.segment.bytes | 单个日志文件的最大大小 | int | 1073741824 | [14,...] | high | ||||||
log.segment.delete.delay.ms | 从文件系统中删除文件之前等待的时间 | long | 60000 | [0,...] | high | ||||||
message.max.bytes | 服务器可以接收的消息的最大大小 | int | 1000012 | [0,...] | high | ||||||
min.insync.replicas | 当生产者将acks设置为“all”(或“-1”)时,min.insync.replicas指定必须确认写入的副本的最小数量,以使写入被认为成功。 如果这个最小值不能满足,那么生产者将引发一个异常(NotEnoughReplicas或NotEnoughReplicasAfterAppend)。当一起使用时,min.insync.replicas和ack允许你强制更强的耐久性保证。 典型的情况是创建一个复制因子为3的主题,将min.insync.replicas设置为2,并产生一个“all”的acks。 这将确保生成器在大多数副本没有接收到写入时引发异常。 | int | 1 | [1,...] | high | ||||||
num.io.threads | 服务器用于执行网络请求的io线程数 | int | 8 | [1,...] | high | ||||||
num.network.threads | 服务器用于处理网络请求的网络线程数 | int | 3 | [1,...] | high | ||||||
num.recovery.threads.per.data.dir | 每个数据目录的线程数,用于在启动时进行日志恢复并在关闭时刷新 | int | 1 | [1,...] | high | ||||||
num.replica.fetchers | 用于从源broker复制消息的提取线程数。 增加此值可以提高跟随器broker中的I / O并行度。 | int | 1 |
| high | ||||||
offset.metadata.max.bytes | 与offset提交关联的元数据条目的最大大小 | int | 4096 |
| high | ||||||
offsets.commit.required.acks | 可以接受提交之前所需的acks。 通常,不应覆盖默认值(-1) | short | -1 |
| high | ||||||
offsets.commit.timeout.ms | 偏移提交将被延迟,直到偏移主题的所有副本都收到提交或达到此超时。 这类似于生产者请求超时。 | int | 5000 | [1,...] | high | ||||||
offsets.load.buffer.size | 用于在将偏移量装入缓存时从偏移段读取的批量大小。 | int | 5242880 | [1,...] | high | ||||||
offsets.retention.check.interval.ms | 检查旧偏移的频率 | long | 600000 | [1,...] | high | ||||||
offsets.retention.minutes | 偏移topic的日志保留时间(分钟) | int | 1440 | [1,...] | high | ||||||
offsets.topic.compression.codec | 用于偏移topic的压缩编解码器 - 压缩可以用于实现“原子”提交 | int | 0 |
| high | ||||||
offsets.topic.num.partitions | 偏移提交topic的分区数(部署后不应更改) | int | 50 | [1,...] | high | ||||||
offsets.topic.replication.factor | 偏移量主题的复制因子(设置为更高以确保可用性)。内部主题创建将失败,直到集群大小满足此复制因子要求。
| short | 3 | [1,...] | high | ||||||
offsets.topic.segment.bytes | 偏移主题段字节应保持相对较小,以便于加快日志压缩和缓存加载 | int | 104857600 | [1,...] | high | ||||||
port | 弃用的:仅在未设置`listeners`时使用。 使用`listeners`代替。 | int | 9092 |
| high | ||||||
queued.max.requests | 在阻止网络线程之前允许的排队请求数 | int | 500 | [1,...] | high | ||||||
quota.consumer.default | 弃用的:仅当未在Zookeeper中或在Zookeeper中配置动态默认配额时使用。 由clientId / consumer组区分的任何消费者如果每秒获取的字节数超过此值,则会受到限制 | long | 9223372036854775807 | [1,...] | high | ||||||
quota.producer.default | 弃用的:仅在未配置动态默认配额时使用,或在Zookeeper中使用。 由clientId区分的任何生产者如果每秒产生的字节数大于此值,则会受到限制
| long | 9223372036854775807 | [1,...] | high | ||||||
replica.fetch.min.bytes | 每个获取响应所需的最小字节数。 如果没有足够的字节,请等待到replicaMaxWaitTimeMs | int | 1 |
| high | ||||||
replica.fetch.wait.max.ms | 由跟随者副本发出的每个获取器请求的最大等待时间。 此值应始终小于replica.lag.time.max.ms以防止低吞吐量topic的ISR频繁收缩 | int | 500 |
| high | ||||||
replica.high.watermark.checkpoint.interval.ms | 保存到磁盘的频率 | long | 5000 |
| high | ||||||
replica.lag.time.max.ms | 如果跟随者没有发送任何提取请求,或者至少没有消耗到领导者日志结束偏移,则领导者将从ISR移除跟随者。
| long | 10000 |
| high | ||||||
replica.socket.receive.buffer.bytes | 用于网络请求的套接字接收缓冲区 | int | 65536 |
| high | ||||||
replica.socket.timeout.ms | 网络请求的套接字超时。 其值应至少为replica.fetch.wait.max.ms | int | 30000 |
| high | ||||||
request.timeout.ms | 配置控制客户端等待请求响应的最大时间量。 如果在超时时间之前没有收到响应,客户端将在必要时重新发送请求,如果重试次数耗尽,则请求失败。 | int | 30000 |
| high | ||||||
socket.receive.buffer.bytes | 套接字服务器的SO_RCVBUF缓冲区插槽。 如果值为-1,将使用操作系统默认值。 | int | 102400 |
| high | ||||||
socket.request.max.bytes | 套接字请求中的最大字节数 | int | 104857600 | [1,...] | high | ||||||
socket.send.buffer.bytes | 套接字服务器的SO_SNDBUF缓冲区插槽。 如果值为-1,将使用操作系统默认值。 | int | 102400 |
| high | ||||||
transaction.max.timeout.ms | 事务的最大允许超时时间。如果客户端请求的事务时间超过此,则代理将返回InitProducerIdRequest中的错误。这样可以防止客户端超时过大,这会阻止消费者从事务中包含的主题中读取信息。
| int | 900000 | [1,...] | high | ||||||
transaction.state.log.load.buffer.size | 当将生产者ID和事务加载到缓存中时,从事务日志段读取的批大小。
| int | 5242880 | [1,...] | high | ||||||
transaction.state.log.min.isr | 覆盖事务主题的min.insync.replicas配置。 | int | 2 | [1,...] | high | ||||||
transaction.state.log.num.partitions | 事务主题的分区数量(部署后不应更改)。 | int | 50 | [1,...] | high | ||||||
transaction.state.log.replication.factor | 事务主题的复制因子(设置更高以确保可用性)。 内部主题创建将失败,直到群集大小满足此复制因素要求。 | short | 3 | [1,...] | high | ||||||
transaction.state.log.segment.bytes | 事务主题段字节应保持相对较小,以便于更快的日志压缩和缓存负载 | int | 104857600 | [1,...] | high | ||||||
transactional.id.expiration.ms | 事务协调器在未收到任何事务状态更新之前,主动设置生产者的事务标识为过期之前将等待的最长时间(以毫秒为单位)。 | int | 604800000 | [1,...] | high | ||||||
unclean.leader.election.enable | 指明了是否能够使不在ISR中replicas follower设置用来作为leader | boolean | false |
| high | ||||||
zookeeper.connection.timeout.ms | 连接到ZK server的超时时间,没有配置就使用zookeeper.session.timeout.ms | int |
|
| high | ||||||
zookeeper.session.timeout.ms | ZooKeeper的session的超时时间,如果在这段时间内没有收到ZK的心跳,则会被认为该Kafka server挂掉了。如果把这个值设置得过低可能被误认为挂掉,如果设置得过高,如果真的挂了,则需要很长时间才能被server得知。 | int | 6000 |
| high | ||||||
zookeeper.set.acl | 连接zookeeper是否使用 ACLs安全验证 | boolean | false |
| high | ||||||
broker.id.generation.enable | 服务器是否允许自动生成broker.id;如果允许则产生的值会交由reserved.broker.max.id审核 | boolean | true |
| medium | ||||||
broker.rack | broker的机架位置。 这将在机架感知复制分配中用于容错。 例如:RACK1,us-east-1d | string |
|
| medium | ||||||
connections.max.idle.ms | 空闲连接超时:服务器套接字处理器线程关闭闲置超过此的连接 | long | 600000 |
| medium | ||||||
controlled.shutdown.enable | 是否允许控制器关闭broker ,若是设置为true,会关闭在这个broker上所有分区的leader,并转移到其他broker,这会降低在关闭期间不可用的时间。 | boolean | true |
| medium | ||||||
controlled.shutdown.max.retries | 控制器在关闭时可能有多种原因导致失败,可以重新关闭的次数。 | int | 3 |
| medium | ||||||
controlled.shutdown.retry.backoff.ms | 在每次重新关闭前,系统需要一定的时间去恢复发生错误之前的状态,这个就是在重试期间的回退(backoff)时间。 | long | 5000 |
| medium | ||||||
controller.socket.timeout.ms | 控制器到broker通道的socket超时时间 | int | 30000 |
| medium | ||||||
default.replication.factor | 自动创建topic时的默认副本的个数 | int | 1 |
| medium | ||||||
delete.records.purgatory.purge.interval.requests | 删除记录请求的清除间隔(请求次数) | int | 1 |
| medium | ||||||
fetch.purgatory.purge.interval.requests | 取回请求的清除间隔(请求次数)
| int | 1000 |
| medium | ||||||
group.initial.rebalance.delay.ms | 在执行第一次再平衡之前,group协调员将等待更多消费者加入group的时间。 延迟时间越长意味着重新平衡的可能性越小,但是等待处理开始的时间增加
| int | 3000 |
| medium | ||||||
group.max.session.timeout.ms | 消费者向组内注册时允许的最大超时时间,超过这个时间表示注册失败。更长的超时使消费者有更多的时间来处理心跳之间的消息,代价是检测失败的时间更长。 | int | 300000 |
| medium | ||||||
group.min.session.timeout.ms | 消费者向组内注册时允许的最小超时时间,更短的超时以更频繁的消费者心跳为代价但有更快速的故障检测,这可能影响broker资源。 | int | 6000 |
| medium | ||||||
inter.broker.listener.name | 用于经纪人之间沟通的监听者名称。如果未设置,则侦听器名称由security.inter.broker.protocol定义。 同时设置此和security.inter.broker.protocol属性是错误的。 | string |
|
| medium | ||||||
inter.broker.protocol.version | 指定将使用哪个版本的 inter-broker 协议。 在所有经纪人升级到新版本之后,这通常会受到冲击。升级时要设置 | string | 1.0-IV0 |
| medium | ||||||
log.cleaner.backoff.ms | 检查log是否需要clean的时间间隔。 | long | 15000 | [0,...] | medium | ||||||
log.cleaner.dedupe.buffer.size | 日志压缩去重时候的缓存空间,在空间允许的情况下,越大越好。 | long | 134217728 |
| medium | ||||||
log.cleaner.delete.retention.ms | 对于压缩的日志保留的最长时间,也是客户端消费消息的最长时间,同log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据。 | long | 86400000 |
| medium | ||||||
log.cleaner.enable | 启用日志清理器进程在服务器上运行。使用了cleanup.policy = compact的主题,包括内部offsets主题,都应该启动该选项。如果被禁用的话,这些话题将不会被压缩,并且会不断增长。 | boolean | true |
| medium | ||||||
log.cleaner.io.buffer.load.factor | 日志清理中hash表的扩大因子,一般不需要修改。 | double | 0.9 |
| medium | ||||||
log.cleaner.io.buffer.size | 日志清理时候用到的I/O块(chunk)大小,一般不需要修改。 | int | 524288 | [0,...] | medium | ||||||
log.cleaner.io.max.bytes.per.second | 在执行log compaction的过程中,限制了cleaner每秒钟I/O的数据量,以免cleaner影响正在执行的请求。 | double | 1.7976931348623157E308 |
| medium | ||||||
log.cleaner.min.cleanable.ratio | 控制了log compactor进行clean操作的频率。默认情况下,当log的50%以上已被clean时,就不用继续clean了。此配置可以被覆盖。 | double | 0.5 |
| medium | ||||||
log.cleaner.min.compaction.lag.ms | 消息在日志中保持未压缩的最短时间。 仅适用于正在压缩的日志。 | long | 0 |
| medium | ||||||
log.cleaner.threads | 用于日志清理的后台线程的数量 | int | 1 | [0,...] | medium | ||||||
log.cleanup.policy | 此配置可以设置成delete或compact。如果设置为delete,当log segment文件的大小达到上限,或者roll时间达到上限,文件将会被删除。如果设置成compact,则此文件会被清理,标记成已过时状态,详见 4.8 。此配置可以被覆盖。 | list | delete | [compact, delete] | medium | ||||||
log.index.interval.bytes | 当执行一个fetch操作后,需要一定的空间来扫描最近的offset大小,设置越大,代表扫描速度越快,但是也更耗内存,一般情况下不需要改变这个参数。 | int | 4096 | [0,...] | medium | ||||||
log.index.size.max.bytes | 每个log segment的最大尺寸。注意,如果log尺寸达到这个数值,即使尺寸没有超过log.segment.bytes限制,也需要产生新的log segment。 | int | 10485760 | [4,...] | medium | ||||||
log.message.format.version | 指定broker将用于将消息添加到日志文件的消息格式版本。 该值应该是有效的ApiVersion。 一些例子是:0.8.2,0.9.0.0,0.10.0。 通过设置特定的消息格式版本,用户保证磁盘上的所有现有消息都小于或等于指定的版本。 不正确地设置这个值将导致使用旧版本的用户出错,因为他们将接收到他们不理解的格式的消息。 | string | 1.0-IV0 |
| medium | ||||||
log.message.timestamp.difference.max.ms | broker收到消息时的时间戳和消息中指定的时间戳之间允许的最大差异。如果log.message.timestamp.type = CreateTime,如果时间戳的差值超过此阈值,则会拒绝接受这条消息。如果log.message.timestamp.type = LogAppendTime,则忽略此配置。允许的最大时间戳差异不应大log.retention.ms,以避免不必要地频繁进行日志滚动。 | long | 9223372036854775807 |
| medium | ||||||
log.message.timestamp.type | 定义消息中的时间戳是消息创建时间还是日志追加时间。 该值应该是“CreateTime”或“LogAppendTime” | string | CreateTime | [CreateTime, LogAppendTime] | medium | ||||||
log.preallocate | 是否预创建新的段文件,windows推荐使用 | boolean | false |
| medium | ||||||
log.retention.check.interval.ms | 检查日志段文件的间隔时间,以确定是否文件属性是否到达删除要求。 | long | 300000 | [1,...] | medium | ||||||
max.connections.per.ip | broker上每个IP允许最大的连接数 | int | 2147483647 | [1,...] | medium | ||||||
max.connections.per.ip.overrides | 每个ip或者hostname默认的连接的最大覆盖 | string | "" |
| medium | ||||||
num.partitions | 新建Topic时默认的分区数 | int | 1 | [1,...] | medium | ||||||
principal.builder.class | 实现KAFKAPRIN CIPuBurdor接口的类的完全限定名,用于在授权过程中使用KAFKAPRIPIPSIL对象。此配置还支持以前用于SSL的客户端身份验证的Debug PrimeBu建器接口。如果没有定义主生成器,则默认行为取决于使用的安全协议。对于SSL身份验证,如果提供了一个主名称,将是来自客户端证书的区分名称;否则,如果不需要客户端身份验证,则主体名称将是匿名的。对于SASL认证,主体将使用SASL.KKBALOS.PrimPal.to.Loal.Grand规则,如果GSSAPI正在使用,以及其他机构的SASL认证ID。对于明文,校长将是匿名的。
| class |
|
| medium | ||||||
producer.purgatory.purge.interval.requests | 生产者请求的清洗间隔(请求次数)
| int | 1000 |
| medium | ||||||
queued.max.request.bytes | 在没有读取更多请求之前允许的排队字节数。
| long | -1 |
| medium | ||||||
replica.fetch.backoff.ms | 发生读取分区错误时的睡眠时间。
| int | 1000 | [0,...] | medium | ||||||
replica.fetch.max.bytes | 试图为每个分区获取的消息字节数。这不是绝对最大值,如果取回的第一个非空分区中的第一个记录批大于这个值,则记录批仍将返回以确保可以进行进度。代理所接受的最大记录批量大小定义了ViaMaseA.Max(Basic CONFIG)ORMAX。
| int | 1048576 | [0,...] | medium | ||||||
replica.fetch.response.max.bytes | 整个取回响应的最大字节数。记录以批处理方式获取,如果第一个非空分区中的第一个记录批大于这个值,则仍将记录批处理以确保可以进行进度。因此,这不是绝对最大值。代理所接受的最大记录批量大小定义了ViaMaseA.Max(Basic CONFIG)ORMAX。
| int | 10485760 | [0,...] | medium | ||||||
reserved.broker.max.id | 最大的数字用于broker.id | int | 1000 | [0,...] | medium | ||||||
sasl.enabled.mechanisms | kafka服务器中启用的SASL机制列表。该列表可以包含任何安全提供者可用的机制。默认情况下只有GSSAPI启用。
| list | GSSAPI |
| medium | ||||||
sasl.kerberos.kinit.cmd | Kerberos KimIT命令路径。 | string | /usr/bin/kinit |
| medium | ||||||
sasl.kerberos.min.time.before.relogin | 在刷新尝试之间登录线程睡眠时间。 | long | 60000 |
| medium | ||||||
sasl.kerberos.principal.to.local.rules | 从主名到短名称(通常是操作系统用户名)映射的规则列表。规则按顺序进行评估,并且与主名称匹配的第一条规则用于将其映射到短名称。列表中的任何以后的规则将被忽略。默认情况下,窗体{用户名}/{主机名}域}的主要名称被映射到{用户名}。有关格式的更多细节请参阅SeeSurvivAs授权和ACL。请注意,如果KafkaPrincipalBuilder的扩展是由PrimalPal.BuoDr.Car配置提供的,则忽略此配置。
| list | DEFAULT |
| medium | ||||||
sasl.kerberos.service.name | 卡夫卡运行的Kerberos主体名称。这可以在卡夫卡的JAAS配置文件或卡夫卡的配置文件中定义。 | string |
|
| medium | ||||||
sasl.kerberos.ticket.renew.jitter | 随机平衡的百分比增加到更新时间。 | double | 0.05 |
| medium | ||||||
sasl.kerberos.ticket.renew.window.factor | 登录线程将休眠,直到从上次刷新ticket到期,此时将尝试续订ticket。 | double | 0.8 |
| medium | ||||||
sasl.mechanism.inter.broker.protocol | 用于代理间通信的SASL机制。默认是GSSAPI。
| string | GSSAPI |
| medium | ||||||
security.inter.broker.protocol | 用于代理之间通信的安全协议。有效值是:明文、SSL、SASLILISTER、SAASLSSL。同时设置此和It.Buff.ListNe.NoD属性是一个错误。
| string | PLAINTEXT |
| medium | ||||||
ssl.cipher.suites | 密码套件列表。用于TLS或SSL网络协议协商网络连接的安全设置的认证,加密,MAC和密钥交换算法的命名组合。 默认情况下,支持所有可用的密码套件。 | list |
|
| medium | ||||||
ssl.client.auth | 配置卡夫卡代理以请求客户端身份验证。以下设置是常见的:
如果需要设置客户机身份验证,则需要SSL.Client。Auth=需要。
SSL。Client。Auth=请求,这意味着客户端身份验证是可选的。与请求不同,如果设置了此选项,客户端可以选择不提供关于其自身的身份验证信息。
SSL.Client,Auth=没有,这意味着不需要客户端身份验证。 | string | none | [required, requested, none] | medium | ||||||
ssl.enabled.protocols | 为SSL连接启用的协议列表。
| list | TLSv1.2,TLSv1.1,TLSv1 |
| medium | ||||||
ssl.key.password | 密钥存储文件中私钥的密码。这对于客户端是可选的。
| password |
|
| medium | ||||||
ssl.keymanager.algorithm | 密钥管理器工厂用于SSL连接的算法。默认值是密钥管理器厂算法配置java虚拟机。
| string | SunX509 |
| medium | ||||||
ssl.keystore.location | 密钥存储文件的位置。对于客户端来说,这是可选的,可以用于客户端的双向认证。
| string |
|
| medium | ||||||
ssl.keystore.password | 密钥存储文件的存储密码。这对于客户端是可选的,只需要配置SSL.KeStk.Lead。
| password |
|
| medium | ||||||
ssl.keystore.type | 密钥存储文件的文件格式。这对于客户端是可选的。
| string | JKS |
| medium | ||||||
ssl.protocol | 用于生成SSLVIEW的SSL协议。默认设置是TLS,这对于大多数情况来说是好的。在最近的JVM中允许的值是TLS、TLV1.1和TLV1.2。SSL、SSLV2和SSLV3可以在较老的JVM中得到支持,但是由于已知的安全漏洞而阻碍了它们的使用。
| string | TLS |
| medium | ||||||
ssl.provider | 用于SSL连接的安全提供程序的名称。默认值是JVM的默认安全性提供程序。
| string |
|
| medium | ||||||
ssl.trustmanager.algorithm | 信任管理器工厂用于SSL连接的算法。默认值为信托经理厂算法配置java虚拟机。
| string | PKIX |
| medium | ||||||
ssl.truststore.location | 信任存储文件的位置。
| string |
|
| medium | ||||||
ssl.truststore.password | 信任存储文件的密码。如果未设置密码,仍然可以访问信任存储区,但禁用完整性检查。
| password |
|
| medium | ||||||
ssl.truststore.type | 信任存储文件的文件格式。 | string | JKS |
| medium | ||||||
alter.config.policy.class.name | ALTER配置应该用于验证的策略类。该类应该实现Or.ApAC.KAFKA.Serv.Price。 | class |
|
| low | ||||||
authorizer.class.name | 应用于授权的授权程序类 | string | "" |
| low | ||||||
create.topic.policy.class.name | 应该用于验证的CREATE主题策略类。该类应该实现Or.ApAC.KAFKA.Serv.Cuff.CealTePopIcRead接口。 | class |
|
| low | ||||||
listener.security.protocol.map | 在侦听器名称和安全协议之间映射。对于相同的安全协议,必须在多个端口或IP中定义这一点。例如,即使两者都需要SSL,也可以分离内部和外部业务。具体来说,用户可以定义具有内部和外部名称的侦听器,并且该属性为:“内部:SSL,外部:SSL”。如图所示,键和值由冒号分隔,MAP条目用逗号分隔。每个侦听器名称只在地图中出现一次。可以为每个侦听器配置不同的安全性(SSL和SASL)设置,通过向CONFIG名称添加标准化前缀(侦听器名称为LeLeCaseDead)。例如,为内部侦听器设置一个不同的密钥存储库,将设置一个名为‘侦听器.Name .No.SSL.KyStury.Load’的配置。如果没有设置侦听器名称的配置,则配置将回落到通用配置(即‘SSL.KiStk.Load’)。
| string | PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL |
| low | ||||||
metric.reporters | 作为度量指标的类的列表。实现Or.ApHEC.KAFK.AUM.MUCICIC.MeMICCsHealthExchange接口允许插入将被通知新度量创建的类。JMXNeRead总是包含注册JMX统计信息。
| list | "" |
| low | ||||||
metrics.num.samples | 保留计算metrics的样本数(译者不清楚是做什么的) | int | 2 | [1,...] | low | ||||||
metrics.recording.level | 度量的最高记录级别。 | string | INFO |
| low | ||||||
metrics.sample.window.ms | The window 计算度量样本。 | long | 30000 | [1,...] | low | ||||||
quota.window.num | 在客户机内存中保留的样本数量
| int | 11 | [1,...] | low | ||||||
quota.window.size.seconds | 客户配额的每个样本的时间跨度
| int | 1 | [1,...] | low | ||||||
replication.quota.window.num | 在内存中保留用于复制配额的样本数量 | int | 11 | [1,...] | low | ||||||
replication.quota.window.size.seconds | 复制配额的每个样本的时间跨度
| int | 1 | [1,...] | low | ||||||
ssl.endpoint.identification.algorithm | 使用服务器证书验证服务器主机名的端点识别算法。
| string |
|
| low | ||||||
ssl.secure.random.implementation | 用于SSL加密操作的SoCurrANDOM PRNG实现。
| string |
|
| low | ||||||
transaction.abort.timed.out.transaction.cleanup.interval.ms | 回滚已超时事务的间隔。
| int | 60000 | [1,...] | low | ||||||
transaction.remove.expired.transaction.cleanup.interval.ms | 在该区间删除已过期的totransactional.id.expiration.mspassing交易由于 | int | 3600000 | [1,...] | low | ||||||
zookeeper.sync.time.ms | zookeeper的follower同leader的同步时间 | int | 2000 |
| low |