leecode 56. 合并区间-java toArray用法

题目所属分类

二维数组的按照排序大小的方法要记住 Arrays.sort(a, (i1, i2) -> (i1[0] == i2[0] ? i2[1] - i1[1] : i1[0] - i2[0]));
同时还有list集合转为数组的形式res.toArray(new int[0][0])
Java泛型集合的toArray方法
在这里插入图片描述
在这里插入图片描述

原题链接

以数组 intervals 表示若干个区间的集合,其中单个区间为 intervals[i] = [starti, endi] 。请你合并所有重叠的区间,并返回 一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间 。

代码案例:输入:intervals = [[1,3],[2,6],[8,10],[15,18]]
输出:[[1,6],[8,10],[15,18]]
解释:区间 [1,3] 和 [2,6] 重叠, 将它们合并为 [1,6].

题解

在这里插入图片描述

class Solution {
    public int[][] merge(int[][] a) {
           List<int[]> res = new ArrayList<>();
           if(a.length ==0 ) return null;
           Arrays.sort(a, (i1, i2) -> (i1[0] == i2[0] ? i2[1] - i1[1] : i1[0] - i2[0]));
           int l = a[0][0] ;int r  = a[0][1];//第一个区间的左右端点
           //从第二个端点开始遍历
           for(int i = 1 ; i < a.length ; i++){
               if(a[i][0] > r ){
                   res.add(new int[]{l,r});
                   l = a[i][0];
                   r = a[i][1];
               }else r = Math.max(r,a[i][1]);
           }
           //最后一个区间要保存
           res.add(new int[]{l,r});
           return res.toArray(new int[0][0]) ;
    }
}
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
你可以使用 Kafka 的 Java API 来实现这个命令,具体实现如下: ```java import org.apache.kafka.clients.admin.AdminClient; import org.apache.kafka.clients.admin.AdminClientConfig; import org.apache.kafka.clients.admin.ConsumerGroupDescription; import org.apache.kafka.clients.admin.ConsumerGroupListing; import org.apache.kafka.clients.admin.ListConsumerGroupOffsetsResult; import org.apache.kafka.clients.admin.ListConsumerGroupsResult; import org.apache.kafka.clients.admin.ListOffsetsResult; import org.apache.kafka.clients.admin.OffsetSpec; import org.apache.kafka.clients.admin.TopicDescription; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.KafkaConsumer; import org.apache.kafka.common.TopicPartition; import org.apache.kafka.common.serialization.StringDeserializer; import java.time.Duration; import java.util.Collections; import java.util.Map; import java.util.Properties; import java.util.Set; import java.util.concurrent.ExecutionException; public class KafkaConsumerGroups { public static void main(String[] args) throws ExecutionException, InterruptedException { Properties adminProps = new Properties(); adminProps.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092"); AdminClient adminClient = AdminClient.create(adminProps); // List Consumer Groups ListConsumerGroupsResult consumerGroupsResult = adminClient.listConsumerGroups(); Set<ConsumerGroupListing> consumerGroups = consumerGroupsResult.all().get(); for (ConsumerGroupListing group : consumerGroups) { System.out.println("Consumer Group: " + group.groupId()); // Describe Consumer Group ConsumerGroupDescription consumerGroupDescription = adminClient.describeConsumerGroups(Collections.singleton(group.groupId())).all().get().get(group.groupId()); System.out.println("State: " + consumerGroupDescription.state()); System.out.println("Coordinator: " + consumerGroupDescription.coordinator().toString()); System.out.println("Members: " + consumerGroupDescription.members().size()); System.out.println("Topic Partitions:"); Map<String, TopicDescription> topicDescriptions = adminClient.describeTopics(consumerGroupDescription.members().stream().map(member -> member.assignment().topicPartitions().iterator().next().topic()).distinct().toArray(String[]::new)).all().get(); for (TopicDescription topicDescription : topicDescriptions.values()) { for (TopicPartition partition : topicDescription.partitions()) { System.out.println("\t" + topicDescription.name() + "-" + partition.partition() + ": " + consumerGroupDescription.assignment().partitionsForTopic(topicDescription.name()).contains(partition)); } } // List Consumer Group Offsets ListConsumerGroupOffsetsResult consumerGroupOffsetsResult = adminClient.listConsumerGroupOffsets(group.groupId()); Map<TopicPartition, Long> consumerGroupOffsets = consumerGroupOffsetsResult.partitionsToOffsetAndMetadata().get(); System.out.println("Consumer Group Offsets:"); for (Map.Entry<TopicPartition, Long> entry : consumerGroupOffsets.entrySet()) { System.out.println("\t" + entry.getKey().topic() + "-" + entry.getKey().partition() + ": " + entry.getValue()); } // List Latest Offsets Properties consumerProps = new Properties(); consumerProps.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092"); consumerProps.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false"); consumerProps.put(ConsumerConfig.GROUP_ID_CONFIG, group.groupId()); consumerProps.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class); consumerProps.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class); KafkaConsumer<String, String> consumer = new KafkaConsumer<>(consumerProps); Map<TopicPartition, Long> latestOffsets = consumer.endOffsets(consumerGroupOffsets.keySet(), Duration.ofSeconds(5)); System.out.println("Latest Offsets:"); for (Map.Entry<TopicPartition, Long> entry : latestOffsets.entrySet()) { System.out.println("\t" + entry.getKey().topic() + "-" + entry.getKey().partition() + ": " + entry.getValue()); } // List Earliest Offsets Map<TopicPartition, Long> earliestOffsets = consumer.beginningOffsets(consumerGroupOffsets.keySet(), Duration.ofSeconds(5)); System.out.println("Earliest Offsets:"); for (Map.Entry<TopicPartition, Long> entry : earliestOffsets.entrySet()) { System.out.println("\t" + entry.getKey().topic() + "-" + entry.getKey().partition() + ": " + entry.getValue()); } } } } ``` 这个程序使用 Kafka 的 AdminClient 来获取消费者组信息、消费者组偏移量以及主题分区的最早和最新偏移量。你可以根据自己的需求修改程序,例如只获取特定的消费者组信息等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

依嘫_吃代码

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值