kafka1.0Server端配置详解

此篇文章是我从官网拿来的资料自己打了4个多小时翻译的,给大家参考Server端的配置

 

NAME

DESCRIPTION

TYPE

DEFAULT

VALID VALUES

IMPORTANCE

zookeeper.connect

Zookeeper host string

string

 

 

high                                

advertised.host.name

打广告的地址若是设置的话会提供给producers, consumers,其他broker连接具体如何使用还未深究

string

 

 

high

advertised.listeners

打广告的地址若是设置的话会提供给producers, consumers,其他broker连接具体如何使用还未深究

string

 

 

high

advertised.port

只在广告”、“听众听众没有设置时使用改为使用广告听众”。该端口发布给动物园管理员供客户使用IaaS环境中这可能需要与代理绑定的端口不同如果没有设置它将发布代理绑定到的端口

int

 

 

high

auto.create.topics.enable

启用服务器上的主题自动创建

 

boolean

true

 

high

auto.leader.rebalance.enable

是否自动平衡broker之间的分配策略

boolean

true

 

high

background.threads

一些后台任务处理的线程数例如过期消息文件的删除等一般情况下不需要去做修改

int

10

[1,...]

high

broker.id

每一个broker在集群中的唯一标示要求是正数在改变IP地址不改变broker.id的话不会影响consumers

int

-1

 

high

compression.type

指定给定主题的最终压缩类型此配置接受标准压缩编解码器('gzip', 'snappy', 'lz4')。它还接受“uncompressed”,这相当于没有压缩“producer”,这意味着保留原始压缩编解码器设置的producer。

string

producer

 

high

delete.topic.enable

启用删除主题如果这个配置被关闭通过管理工具删除主题将不起作用

boolean

true

 

high

host.name

broker的主机地址若是设置了那么会绑定到这个地址上若是没有会绑定到所有的接口上并将其中之一发送到ZK,一般成自己的ip

string

""

 

high

leader.imbalance.check.interval.seconds

检查leader是否不平衡的时间间隔

long

300

 

high

leader.imbalance.per.broker.percentage

leader的不平衡比例若是超过这个数值会对分区进行重新的平衡

int

10

 

high

listeners

侦听器列表-逗号分隔的URI列表我们将侦听和侦听器名称如果侦听器名称不是安全协议也必须设置ListEn.SaleTy.Primo.Mp。指定主机名为0.0.0.0以绑定到所有接口将主机名空到绑定到默认接口合法听众列表的例子明文://MyHub:9092,SSL://:9091客户端://0.0.0.0:9092,复制://LoalHoo: 9093

 

string

 

 

high

log.dir

Kafka数据存放的目录

string

/tmp/kafka-logs

 

high

log.dirs

Kafka数据存放的目录可以指定多个目录中间用逗号分隔当新partition被创建的时会被存放到当前存放partition最少的目录

string

 

 

high

log.flush.interval.messages

log文件”sync”到磁盘之前累积的消息条数

因为磁盘IO操作是一个慢操作,但又是一个数据可靠性的必要手段

所以此参数的设置,需要在数据可靠性性能之间做必要的权衡.

如果此值过大,将会导致每次”fsync”的时间较长(IO阻塞)

如果此值过小,将会导致”fsync”的次数较多,这也意味着整体的client请求有一定的延迟.

物理server故障,将会导致没有fsync的消息丢失.

long

9223372036854775807

[1,...]

high

log.flush.interval.ms

仅仅通过interval来控制消息的磁盘写入时机,是不足的.

此参数用于控制”fsync”的时间间隔,如果消息量始终没有达到阀值,但是离上一次磁盘同步的时间间隔

达到阀值,也将触发.

long

 

 

high

log.flush.offset.checkpoint.interval.ms

控制上次固化硬盘的时间点以便于数据恢复 一般不需要去修改

int

60000

[0,...]

high

log.flush.scheduler.interval.ms

检查是否需要固化到硬盘的时间间隔

long

9223372036854775807

 

high

log.flush.start.offset.checkpoint.interval.ms

更新日志起始偏移的持久记录的频率

int

60000

[0,...]

high

log.retention.bytes

topic每个分区的最大文件大小一个topic的大小限制 = 分区数*log.retention.bytes =-1 没有大小限制

log.retention.byteslog.retention.minutes任意一个达到要求都会执行删除会被topic创建时的指定参数覆盖

long

-1

 

high

log.retention.hours

在删除日志文件之前的小时数

int

168

 

high

log.retention.minutes

数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理数据也就是消费端能够多久去消费数据

log.retention.byteslog.retention.minutes任意一个达到要求都会执行删除会被topic创建时的指定参数覆盖

int

 

 

high

log.retention.ms

在删除日志文件毫秒之前保留毫秒数如果未设置则使用Log.ReaTime.Mess中的值

long

 

 

high

log.roll.hours

这个参数会在日志segment没有达到log.segment.bytes设置的大小也会强制新建一个segment会被 topic创建时的指定参数覆盖

int

168

[1,...]

high

log.roll.jitter.hours

logRollTimeMillis(以小时为单位减去的最大浮动继承于log.roll.jitter.ms属性

int

0

[0,...]

high

log.roll.jitter.ms

logRollTimeMillis中减去的最大浮动以毫秒为单位)。 如果未设置则使用log.roll.jitter.hours中的值

long

 

 

high

log.roll.ms

新日志段推出之前的最长时间以毫秒为单位)。 如果未设置则使用log.roll.hours中的值

long

 

 

high

log.segment.bytes

单个日志文件的最大大小

int

1073741824

[14,...]

high

log.segment.delete.delay.ms

从文件系统中删除文件之前等待的时间

long

60000

[0,...]

high

message.max.bytes

服务器可以接收的消息的最大大小

int

1000012

[0,...]

high

min.insync.replicas

当生产者将acks设置为“all”(“-1”),min.insync.replicas指定必须确认写入的副本的最小数量以使写入被认为成功如果这个最小值不能满足那么生产者将引发一个异常(NotEnoughReplicasNotEnoughReplicasAfterAppend)。当一起使用时,min.insync.replicasack允许你强制更强的耐久性保证典型的情况是创建一个复制因子为3的主题min.insync.replicas设置为2,并产生一个“all”acks。 这将确保生成器在大多数副本没有接收到写入时引发异常

int

1

[1,...]

high

num.io.threads

服务器用于执行网络请求的io线程数

int

8

[1,...]

high

num.network.threads

服务器用于处理网络请求的网络线程数

int

3

[1,...]

high

num.recovery.threads.per.data.dir

每个数据目录的线程数用于在启动时进行日志恢复并在关闭时刷新

int

1

[1,...]

high

num.replica.fetchers

用于从源broker复制消息的提取线程数增加此值可以提高跟随器broker中的I / O并行度

int

1

 

high

offset.metadata.max.bytes

offset提交关联的元数据条目的最大大小

int

4096

 

high

offsets.commit.required.acks

可以接受提交之前所需的acks。 通常不应覆盖默认值(-1)

short

-1

 

high

offsets.commit.timeout.ms

偏移提交将被延迟直到偏移主题的所有副本都收到提交或达到此超时这类似于生产者请求超时

int

5000

[1,...]

high

offsets.load.buffer.size

用于在将偏移量装入缓存时从偏移段读取的批量大小

int

5242880

[1,...]

high

offsets.retention.check.interval.ms

检查旧偏移的频率

long

600000

[1,...]

high

offsets.retention.minutes

偏移topic的日志保留时间分钟

int

1440

[1,...]

high

offsets.topic.compression.codec

用于偏移topic的压缩编解码器 - 压缩可以用于实现原子提交

int

0

 

high

offsets.topic.num.partitions

偏移提交topic的分区数部署后不应更改

int

50

[1,...]

high

offsets.topic.replication.factor

偏移量主题的复制因子设置为更高以确保可用性)。内部主题创建将失败直到集群大小满足此复制因子要求

 

short

3

[1,...]

high

offsets.topic.segment.bytes

偏移主题段字节应保持相对较小以便于加快日志压缩和缓存加载

int

104857600

[1,...]

high

port

弃用的仅在未设置`listeners`时使用使用`listeners`代替
端口监听和接受连接

int

9092

 

high

queued.max.requests

在阻止网络线程之前允许的排队请求数

int

500

[1,...]

high

quota.consumer.default

弃用的仅当未在Zookeeper中或在Zookeeper中配置动态默认配额时使用clientId / consumer组区分的任何消费者如果每秒获取的字节数超过此值则会受到限制

long

9223372036854775807

[1,...]

high

quota.producer.default

弃用的仅在未配置动态默认配额时使用或在Zookeeper中使用clientId区分的任何生产者如果每秒产生的字节数大于此值则会受到限制

 

 

 

long

9223372036854775807

[1,...]

high

replica.fetch.min.bytes

每个获取响应所需的最小字节数如果没有足够的字节请等待到replicaMaxWaitTimeMs

int

1

 

high

replica.fetch.wait.max.ms

由跟随者副本发出的每个获取器请求的最大等待时间此值应始终小于replica.lag.time.max.ms以防止低吞吐量topicISR频繁收缩

int

500

 

high

replica.high.watermark.checkpoint.interval.ms

保存到磁盘的频率

long

5000

 

high

replica.lag.time.max.ms

如果跟随者没有发送任何提取请求或者至少没有消耗到领导者日志结束偏移则领导者将从ISR移除跟随者

 

long

10000

 

high

replica.socket.receive.buffer.bytes

用于网络请求的套接字接收缓冲区

int

65536

 

high

replica.socket.timeout.ms

网络请求的套接字超时其值应至少为replica.fetch.wait.max.ms

int

30000

 

high

request.timeout.ms

配置控制客户端等待请求响应的最大时间量如果在超时时间之前没有收到响应客户端将在必要时重新发送请求如果重试次数耗尽则请求失败

int

30000

 

high

socket.receive.buffer.bytes

套接字服务器的SO_RCVBUF缓冲区插槽如果值为-1,将使用操作系统默认值

int

102400

 

high

socket.request.max.bytes

套接字请求中的最大字节数

int

104857600

[1,...]

high

socket.send.buffer.bytes

套接字服务器的SO_SNDBUF缓冲区插槽如果值为-1,将使用操作系统默认值

int

102400

 

high

transaction.max.timeout.ms

事务的最大允许超时时间如果客户端请求的事务时间超过此则代理将返回InitProducerIdRequest中的错误这样可以防止客户端超时过大这会阻止消费者从事务中包含的主题中读取信息

 

int

900000

[1,...]

high

transaction.state.log.load.buffer.size

当将生产者ID和事务加载到缓存中时从事务日志段读取的批大小

 

int

5242880

[1,...]

high

transaction.state.log.min.isr

覆盖事务主题的min.insync.replicas配置

int

2

[1,...]

high

transaction.state.log.num.partitions

事务主题的分区数量部署后不应更改)。

int

50

[1,...]

high

transaction.state.log.replication.factor

事务主题的复制因子设置更高以确保可用性)。 内部主题创建将失败直到群集大小满足此复制因素要求

short

3

[1,...]

high

transaction.state.log.segment.bytes

事务主题段字节应保持相对较小以便于更快的日志压缩和缓存负载

int

104857600

[1,...]

high

transactional.id.expiration.ms

事务协调器在未收到任何事务状态更新之前主动设置生产者的事务标识为过期之前将等待的最长时间以毫秒为单位)。

int

604800000

[1,...]

high

unclean.leader.election.enable

指明了是否能够使不在ISRreplicas follower设置用来作为leader

boolean

false

 

high

zookeeper.connection.timeout.ms

连接到ZK server的超时时间,没有配置就使用zookeeper.session.timeout.ms

int

 

 

high

zookeeper.session.timeout.ms

ZooKeepersession的超时时间如果在这段时间内没有收到ZK的心跳则会被认为该Kafka server挂掉了如果把这个值设置得过低可能被误认为挂掉如果设置得过高如果真的挂了则需要很长时间才能被server得知

int

6000

 

high

zookeeper.set.acl

连接zookeeper是否使用 ACLs安全验证

boolean

false

 

high

broker.id.generation.enable

服务器是否允许自动生成broker.id;如果允许则产生的值会交由reserved.broker.max.id审核

boolean

true

 

medium

broker.rack

broker的机架位置这将在机架感知复制分配中用于容错例如:RACK1,us-east-1d

string

 

 

medium

connections.max.idle.ms

空闲连接超时服务器套接字处理器线程关闭闲置超过此的连接

long

600000

 

medium

controlled.shutdown.enable

是否允许控制器关闭broker ,若是设置为true,会关闭在这个broker上所有分区的leader,并转移到其他broker,这会降低在关闭期间不可用的时间

boolean

true

 

medium

controlled.shutdown.max.retries

控制器在关闭时可能有多种原因导致失败可以重新关闭的次数

int

3

 

medium

controlled.shutdown.retry.backoff.ms

在每次重新关闭前系统需要一定的时间去恢复发生错误之前的状态这个就是在重试期间的回退(backoff)时间

long

5000

 

medium

controller.socket.timeout.ms

控制器到broker通道的socket超时时间

int

30000

 

medium

default.replication.factor

自动创建topic时的默认副本的个数

int

1

 

medium

delete.records.purgatory.purge.interval.requests

删除记录请求的清除间隔请求次数

int

1

 

medium

fetch.purgatory.purge.interval.requests

取回请求的清除间隔请求次数

 

int

1000

 

medium

group.initial.rebalance.delay.ms

在执行第一次再平衡之前,group协调员将等待更多消费者加入group的时间延迟时间越长意味着重新平衡的可能性越小但是等待处理开始的时间增加

 

int

3000

 

medium

group.max.session.timeout.ms

消费者向组内注册时允许的最大超时时间超过这个时间表示注册失败更长的超时使消费者有更多的时间来处理心跳之间的消息代价是检测失败的时间更长

int

300000

 

medium

group.min.session.timeout.ms

消费者向组内注册时允许的最小超时时间更短的超时以更频繁的消费者心跳为代价但有更快速的故障检测这可能影响broker资源

int

6000

 

medium

inter.broker.listener.name

用于经纪人之间沟通的监听者名称如果未设置则侦听器名称由security.inter.broker.protocol定义同时设置此和security.inter.broker.protocol属性是错误的

string

 

 

medium

inter.broker.protocol.version

指定将使用哪个版本的 inter-broker 协议在所有经纪人升级到新版本之后这通常会受到冲击升级时要设置

string

1.0-IV0

 

medium

log.cleaner.backoff.ms

检查log是否需要clean的时间间隔

long

15000

[0,...]

medium

log.cleaner.dedupe.buffer.size

日志压缩去重时候的缓存空间在空间允许的情况下越大越好

long

134217728

 

medium

log.cleaner.delete.retention.ms

对于压缩的日志保留的最长时间也是客户端消费消息的最长时间log.retention.minutes的区别在于一个控制未压缩数据一个控制压缩后的数据

long

86400000

 

medium

log.cleaner.enable

启用日志清理器进程在服务器上运行使用了cleanup.policy = compact的主题包括内部offsets主题都应该启动该选项如果被禁用的话这些话题将不会被压缩并且会不断增长

boolean

true

 

medium

log.cleaner.io.buffer.load.factor

日志清理中hash表的扩大因子一般不需要修改

double

0.9

 

medium

log.cleaner.io.buffer.size

日志清理时候用到的I/O(chunk)大小一般不需要修改

int

524288

[0,...]

medium

log.cleaner.io.max.bytes.per.second

在执行log compaction的过程中限制了cleaner每秒钟I/O的数据量以免cleaner影响正在执行的请求

double

1.7976931348623157E308

 

medium

log.cleaner.min.cleanable.ratio

控制了log compactor进行clean操作的频率默认情况下log50%以上已被clean就不用继续clean此配置可以被覆盖

double

0.5

 

medium

log.cleaner.min.compaction.lag.ms

消息在日志中保持未压缩的最短时间仅适用于正在压缩的日志

long

0

 

medium

log.cleaner.threads

用于日志清理的后台线程的数量

int

1

[0,...]

medium

log.cleanup.policy

此配置可以设置成deletecompact。如果设置为delete,log segment文件的大小达到上限或者roll时间达到上限文件将会被删除如果设置成compact,则此文件会被清理标记成已过时状态详见 4.8 。此配置可以被覆盖

list

delete

[compact, delete]

medium

log.index.interval.bytes

当执行一个fetch操作后需要一定的空间来扫描最近的offset大小设置越大代表扫描速度越快但是也更耗内存一般情况下不需要改变这个参数

int

4096

[0,...]

medium

log.index.size.max.bytes

每个log segment的最大尺寸注意如果log尺寸达到这个数值即使尺寸没有超过log.segment.bytes限制也需要产生新的log segment。

int

10485760

[4,...]

medium

log.message.format.version

指定broker将用于将消息添加到日志文件的消息格式版本该值应该是有效的ApiVersion。 一些例子是:0.8.2,0.9.0.0,0.10.0。 通过设置特定的消息格式版本用户保证磁盘上的所有现有消息都小于或等于指定的版本不正确地设置这个值将导致使用旧版本的用户出错因为他们将接收到他们不理解的格式的消息

string

1.0-IV0

 

medium

log.message.timestamp.difference.max.ms

broker收到消息时的时间戳和消息中指定的时间戳之间允许的最大差异如果log.message.timestamp.type = CreateTime,如果时间戳的差值超过此阈值则会拒绝接受这条消息如果log.message.timestamp.type = LogAppendTime,则忽略此配置允许的最大时间戳差异不应大log.retention.ms,以避免不必要地频繁进行日志滚动

long

9223372036854775807

 

medium

log.message.timestamp.type

定义消息中的时间戳是消息创建时间还是日志追加时间该值应该是“CreateTime”“LogAppendTime”

string

CreateTime

[CreateTime, LogAppendTime]

medium

log.preallocate

是否预创建新的段文件,windows推荐使用

boolean

false

 

medium

log.retention.check.interval.ms

检查日志段文件的间隔时间以确定是否文件属性是否到达删除要求

long

300000

[1,...]

medium

max.connections.per.ip

broker上每个IP允许最大的连接数

int

2147483647

[1,...]

medium

max.connections.per.ip.overrides

每个ip或者hostname默认的连接的最大覆盖

string

""

 

medium

num.partitions

新建Topic时默认的分区数

int

1

[1,...]

medium

principal.builder.class

实现KAFKAPRIN CIPuBurdor接口的类的完全限定名用于在授权过程中使用KAFKAPRIPIPSIL对象此配置还支持以前用于SSL的客户端身份验证的Debug PrimeBu建器接口如果没有定义主生成器则默认行为取决于使用的安全协议对于SSL身份验证如果提供了一个主名称将是来自客户端证书的区分名称否则如果不需要客户端身份验证则主体名称将是匿名的对于SASL认证主体将使用SASL.KKBALOS.PrimPal.to.Loal.Grand规则如果GSSAPI正在使用以及其他机构的SASL认证ID。对于明文校长将是匿名的

 

class

 

 

medium

producer.purgatory.purge.interval.requests

生产者请求的清洗间隔请求次数

 

int

1000

 

medium

queued.max.request.bytes

在没有读取更多请求之前允许的排队字节数

 

long

-1

 

medium

replica.fetch.backoff.ms

发生读取分区错误时的睡眠时间

 

int

1000

[0,...]

medium

replica.fetch.max.bytes

试图为每个分区获取的消息字节数这不是绝对最大值如果取回的第一个非空分区中的第一个记录批大于这个值则记录批仍将返回以确保可以进行进度代理所接受的最大记录批量大小定义了ViaMaseA.Max(Basic CONFIG)ORMAX。

 

int

1048576

[0,...]

medium

replica.fetch.response.max.bytes

整个取回响应的最大字节数记录以批处理方式获取如果第一个非空分区中的第一个记录批大于这个值则仍将记录批处理以确保可以进行进度因此这不是绝对最大值代理所接受的最大记录批量大小定义了ViaMaseA.Max(Basic CONFIG)ORMAX。

 

int

10485760

[0,...]

medium

reserved.broker.max.id

最大的数字用于broker.id

int

1000

[0,...]

medium

sasl.enabled.mechanisms

kafka服务器中启用的SASL机制列表该列表可以包含任何安全提供者可用的机制默认情况下只有GSSAPI启用

 

list

GSSAPI

 

medium

sasl.kerberos.kinit.cmd

Kerberos KimIT命令路径

string

/usr/bin/kinit

 

medium

sasl.kerberos.min.time.before.relogin

在刷新尝试之间登录线程睡眠时间

long

60000

 

medium

sasl.kerberos.principal.to.local.rules

从主名到短名称通常是操作系统用户名映射的规则列表规则按顺序进行评估并且与主名称匹配的第一条规则用于将其映射到短名称列表中的任何以后的规则将被忽略默认情况下窗体{用户名}/{主机名}}的主要名称被映射到{用户名}。有关格式的更多细节请参阅SeeSurvivAs授权和ACL。请注意如果KafkaPrincipalBuilder的扩展是由PrimalPal.BuoDr.Car配置提供的则忽略此配置

 

list

DEFAULT

 

medium

sasl.kerberos.service.name

卡夫卡运行的Kerberos主体名称这可以在卡夫卡的JAAS配置文件或卡夫卡的配置文件中定义

string

 

 

medium

sasl.kerberos.ticket.renew.jitter

随机平衡的百分比增加到更新时间

double

0.05

 

medium

sasl.kerberos.ticket.renew.window.factor

登录线程将休眠直到从上次刷新ticket到期此时将尝试续订ticket。

double

0.8

 

medium

sasl.mechanism.inter.broker.protocol

用于代理间通信的SASL机制默认是GSSAPI。

 

string

GSSAPI

 

medium

security.inter.broker.protocol

用于代理之间通信的安全协议有效值是明文、SSL、SASLILISTER、SAASLSSL。同时设置此和It.Buff.ListNe.NoD属性是一个错误

 

string

PLAINTEXT

 

medium

ssl.cipher.suites

密码套件列表用于TLSSSL网络协议协商网络连接的安全设置的认证加密,MAC和密钥交换算法的命名组合默认情况下支持所有可用的密码套件

list

 

 

medium

ssl.client.auth

配置卡夫卡代理以请求客户端身份验证以下设置是常见的

 

如果需要设置客户机身份验证则需要SSL.Client。Auth=需要

 

SSL。Client。Auth=请求这意味着客户端身份验证是可选的与请求不同如果设置了此选项客户端可以选择不提供关于其自身的身份验证信息

 

SSL.Client,Auth=没有这意味着不需要客户端身份验证

string

none

[required, requested, none]

medium

ssl.enabled.protocols

SSL连接启用的协议列表

 

list

TLSv1.2,TLSv1.1,TLSv1

 

medium

ssl.key.password

密钥存储文件中私钥的密码这对于客户端是可选的

 

password

 

 

medium

ssl.keymanager.algorithm

密钥管理器工厂用于SSL连接的算法默认值是密钥管理器厂算法配置java虚拟机

 

string

SunX509

 

medium

ssl.keystore.location

密钥存储文件的位置对于客户端来说这是可选的可以用于客户端的双向认证

 

string

 

 

medium

ssl.keystore.password

密钥存储文件的存储密码这对于客户端是可选的只需要配置SSL.KeStk.Lead。

 

password

 

 

medium

ssl.keystore.type

密钥存储文件的文件格式这对于客户端是可选的

 

string

JKS

 

medium

ssl.protocol

用于生成SSLVIEWSSL协议默认设置是TLS,这对于大多数情况来说是好的在最近的JVM中允许的值是TLS、TLV1.1TLV1.2。SSL、SSLV2SSLV3可以在较老的JVM中得到支持但是由于已知的安全漏洞而阻碍了它们的使用

 

string

TLS

 

medium

ssl.provider

用于SSL连接的安全提供程序的名称默认值是JVM的默认安全性提供程序

 

string

 

 

medium

ssl.trustmanager.algorithm

信任管理器工厂用于SSL连接的算法默认值为信托经理厂算法配置java虚拟机

 

string

PKIX

 

medium

ssl.truststore.location

信任存储文件的位置

 

string

 

 

medium

ssl.truststore.password

信任存储文件的密码如果未设置密码仍然可以访问信任存储区但禁用完整性检查

 

password

 

 

medium

ssl.truststore.type

信任存储文件的文件格式

string

JKS

 

medium

alter.config.policy.class.name

ALTER配置应该用于验证的策略类该类应该实现Or.ApAC.KAFKA.Serv.Price。

class

 

 

low

authorizer.class.name

应用于授权的授权程序类

string

""

 

low

create.topic.policy.class.name

应该用于验证的CREATE主题策略类该类应该实现Or.ApAC.KAFKA.Serv.Cuff.CealTePopIcRead接口

class

 

 

low

listener.security.protocol.map

在侦听器名称和安全协议之间映射对于相同的安全协议必须在多个端口或IP中定义这一点例如即使两者都需要SSL,也可以分离内部和外部业务具体来说用户可以定义具有内部和外部名称的侦听器并且该属性为:“内部:SSL,外部:SSL”。如图所示键和值由冒号分隔,MAP条目用逗号分隔每个侦听器名称只在地图中出现一次可以为每个侦听器配置不同的安全性(SSLSASL)设置通过向CONFIG名称添加标准化前缀侦听器名称为LeLeCaseDead)。例如为内部侦听器设置一个不同的密钥存储库将设置一个名为侦听器.Name .No.SSL.KyStury.Load’的配置如果没有设置侦听器名称的配置则配置将回落到通用配置‘SSL.KiStk.Load’)。

 

string

PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL

 

low

metric.reporters

作为度量指标的类的列表实现Or.ApHEC.KAFK.AUM.MUCICIC.MeMICCsHealthExchange接口允许插入将被通知新度量创建的类。JMXNeRead总是包含注册JMX统计信息

 

list

""

 

low

metrics.num.samples

保留计算metrics的样本数译者不清楚是做什么的

int

2

[1,...]

low

metrics.recording.level

度量的最高记录级别

string

INFO

 

low

metrics.sample.window.ms

The window 计算度量样本

long

30000

[1,...]

low

quota.window.num

在客户机内存中保留的样本数量

 

int

11

[1,...]

low

quota.window.size.seconds

客户配额的每个样本的时间跨度

 

int

1

[1,...]

low

replication.quota.window.num

在内存中保留用于复制配额的样本数量

int

11

[1,...]

low

replication.quota.window.size.seconds

复制配额的每个样本的时间跨度

 

int

1

[1,...]

low

ssl.endpoint.identification.algorithm

使用服务器证书验证服务器主机名的端点识别算法

 

string

 

 

low

ssl.secure.random.implementation

用于SSL加密操作的SoCurrANDOM PRNG实现

 

string

 

 

low

transaction.abort.timed.out.transaction.cleanup.interval.ms

回滚已超时事务的间隔

 

int

60000

[1,...]

low

transaction.remove.expired.transaction.cleanup.interval.ms

在该区间删除已过期的totransactional.id.expiration.mspassing交易由于

int

3600000

[1,...]

low

zookeeper.sync.time.ms

 zookeeperfollowerleader的同步时间

int

2000

 

low

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值