创建Kafka结果表

创建Kafka结果表

Kafka结果表需要定义的DDL如下。

 
   
  1. create table sink_kafka (
  2. messageKey VARBINARY,
  3. `message` VARBINARY,
  4. PRIMARY KEY (messageKey)
  5. ) with (
  6. type = 'kafka010',
  7. topic = 'XXX',
  8. `group.id` = 'XXX',
  9. bootstrap.servers = 'ip1:port,ip2:port,ip3:port'
  10. );

注意:

  1. 创建Kafka结果表时,必须显示的指定PRIMARY KEY (messageKey)。
  2. 无论是阿里云Kafka还是自建Kafka,目前实时计算计算均无Tps、Rps等指标信息。在作业上线之后,运维界面暂时不支持显示指标信息。

WITH参数

通用配置

参数注释说明备注
typekafka对应版本必选,必须是 KAFKA08、KAFKA09、KAFKA010、KAFKA011中的一种,版本对应关系见表格下方。
topic写入的topictopic名称

必选配置

kafka08必选配置:
参数注释说明备注
group.idN/A消费组id
zookeeper.connectzk链接地址zk连接id
kafka09/kafka010/kafka011必选配置:
参数注释说明备注
group.idN/A消费组id
bootstrap.serversKafka集群地址Kafka集群地址

Kafka集群地址:

如果您的Kkafka是阿里云商业版,参见kafka商业版准备配置文档

如果您的Kafka是阿里云公测版,参见kafka公测版准备配置文档

可选配置参数

 
   
  1. "consumer.id","socket.timeout.ms","fetch.message.max.bytes","num.consumer.fetchers","auto.commit.enable","auto.commit.interval.ms","queued.max.message.chunks", "rebalance.max.retries","fetch.min.bytes","fetch.wait.max.ms","rebalance.backoff.ms","refresh.leader.backoff.ms","auto.offset.reset","consumer.timeout.ms","exclude.internal.topics","partition.assignment.strategy","client.id","zookeeper.session.timeout.ms","zookeeper.connection.timeout.ms","zookeeper.sync.time.ms","offsets.storage","offsets.channel.backoff.ms","offsets.channel.socket.timeout.ms","offsets.commit.max.retries","dual.commit.enabled","partition.assignment.strategy","socket.receive.buffer.bytes","fetch.min.bytes"

注意:
以上参数请用户根据实际业务需要选择使用。
其它可选配置项参考kafka官方文档进行配置:
Kafka09
https://kafka.apache.org/0110/documentation.html#consumerconfigs
Kafka010
https://kafka.apache.org/090/documentation.html#newconsumerconfigs
Kafka011
https://kafka.apache.org/0102/documentation.html#newconsumerconfigs

Kafka版本对应关系

typeKafka 版本
Kafka080.8.22
Kafka090.9.0.1
Kafka0100.10.2.1
Kafka0110.11.0.2

示例

 
    
  1. create table datahub_input (
  2. messageKey VARBINARY,
  3. `message` VARBINARY
  4. ) with (type = 'random');
  5. create table sink_kafka (
  6. messageKey VARBINARY,
  7. `message` VARBINARY,
  8. PRIMARY KEY (messageKey)
  9. ) with (
  10. type = 'kafka010',
  11. topic = 'kafka_sink',
  12. `group.id` = 'CID_kafka_sink',
  13. bootstrap.servers = '192.168.116.8:9092,192.168.116.9:9092,192.168.116.10:9092'
  14. );
  15. INSERT INTO
  16. sink_kafka
  17. SELECT
  18. *
  19. FROM
  20. datahub_input;
本文转自实时计算—— 创建Kafka结果表
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值